Element 68Element 45Element 44Element 63Element 64Element 43Element 41Element 46Element 47Element 69Element 76Element 62Element 61Element 81Element 82Element 50Element 52Element 79Element 79Element 7Element 8Element 73Element 74Element 17Element 16Element 75Element 13Element 12Element 14Element 15Element 31Element 32Element 59Element 58Element 71Element 70Element 88Element 88Element 56Element 57Element 54Element 55Element 18Element 20Element 23Element 65Element 21Element 22iconsiconsElement 83iconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsElement 84iconsiconsElement 36Element 35Element 1Element 27Element 28Element 30Element 29Element 24Element 25Element 2Element 1Element 66

MEDIA RESEARCH BLOG

Blog Header Background Image
Zur Übersicht
Wer sagt, was wir online sagen können?

Wer sagt, was wir online sagen können?

21.07.2020

Welche Macht haben Social-Media-Plattformen über nutzergenerierte Inhalte und warum ist diese Macht problematisch? Dürfen sie ohne Weiteres entscheiden, was Nutzer*innen sagen dürfen und was nicht? Drei Medienjurist*innen, die am HBI die Rollen von Online-Plattformen erforschen, geben Antworten auf diese Fragen.


Warum ist es so wichtig, sich über die Regulierung von Internetkommunikation Gedanken zu machen?
Anna Sophia Tiedeke: Die Entwicklung des Internets beeinflusst privates und öffentliches Kommunikationsverhalten. Wie der Europäische Gerichtshof für Menschenrechte im Jahr 2015 festgestellt hat, ist das Internet eines der wichtigsten Mittel geworden, mit dem wir unsere Rechte ausüben, insbesondere die Informations- und Meinungsäußerungsfreiheit. Das Internet stellt also unverzichtbare Instrumente zur Teilhabe an Aktivitäten und Diskussionen von politischen Themen und Angelegenheiten allgemeinen Interesses zur Verfügung.
 
Matthias C. Kettemann: Wir erforschen hier am HBI medienübergreifend, interdisziplinär und unabhängig, wie sich Medien und Kommunikation wandeln. So schaffen wir wichtiges Wissen für Politik, Wirtschaft und Zivilgesellschaft: Gute Politik muss auf Grundlage von empirischen Erkenntnissen ausformuliert werden. Noch knirscht es bei der Regulierung der Online-Kommunikation. Schon vor sechs Jahren kam ein unter Beteiligung des Auswärtigen Amts in Berlin organisierter Workshop zum „Völkerrecht des Netzes“ zu dem Schluss, dass sämtliche digitalpolitische Akteure mit dem Status Quo unzufrieden seien: „Staaten sind frustriert, dass sie Recht im Internet nicht durchsetzen können. Mangels eindeutiger und geltender Regelungen wissen Unternehmen nicht, wie sie mit (staatlichen und privaten) Anfragen umgehen sollen. Sie sind quasi gezwungen, Recht zu sprechen. Nutzer haben Angst um ihre Daten und vor Verletzungen ihrer Grundrechte“. Dem Friedensnobelpreisträger und Juristen Aristide Briand wird der Aphorismus zugeschrieben, dass eine Entscheidung dann gut sei, wenn alle gleich unzufrieden seien. Demnach ist der Status quo also gut. Wir sehen das natürlich ein bisschen anders und versuchen weiterhin, auf Grundlage unserer Forschungen Vorschläge zur optimalen Gestaltung von Onlinerecht und Medienpolitik zu geben.
Inwieweit bestimmen Social-Media-Plattformen darüber, was wir online sagen? Und was ist daran problematisch?
Amélie Pia Heldt: Social-Media-Plattformen bestimmen die Regeln der Kommunikation in der digitalen Öffentlichkeit, indem sie darüber entscheiden, was von Nutzer*innen kommuniziert und rezipiert wird. Hierbei geht es nicht nur um Regeln, die in der Form von gesetzlichen Verboten für die Allgemeinheit gelten und somit auch verfassungsmäßig sind, sondern darüber hinaus um private Regeln, die die Plattformen einseitig festlegen – sogenannte Gemeinschaftsstandards.
Inwiefern ist das ein Problem?
Amélie Pia Heldt: Das ist zum einen problematisch, weil für Nutzer*innen nicht immer ersichtlich und verständlich ist, welche inhaltlichen Verbote die Gemeinschaftsstandards enthalten und wie das Nichteinhalten dieser Regeln durch die Plattformen sanktioniert wird. Zum anderen kann es sein, dass Nutzer*innen durch die Inhaltemoderation unangemessen benachteiligt werden. Um dem entgegenzuwirken, kann die Meinungsfreiheit im Wege der mittelbaren Drittwirkung auch zwischen Privaten wirken, laut Bundesverfassungsgericht insbesondere dann, wenn eine Plattform der Definition des Leitbildes des öffentlichen Forums entspricht. Das hätte in der konkreten Umsetzung zur Folge, dass Plattformen bei der Moderation nutzergenerierter und legaler Inhalte mehr die Meinungsfreiheit ihrer Nutzer*innen berücksichtigen müssten. Es handelt sich allerdings um eine bisher vom Bundesverfassungsgericht noch unbeantwortete Frage, ob und wie es dazu kommen würde, und ob es auch Regulierung zur Folge hätte.
 
Matthias C. Kettemann: Gleichzeitig dürfen wir nicht vergessen, dass es die Staaten sind, die in der primären Pflicht sind, alle Rechte ihrer Bürger*innen zu schützen, online wie offline. Die völkerrechtlichen und europarechtlichen Verpflichtungen stecken den Rahmen ab, innerhalb dessen auch Deutschland Menschenrechte online garantieren muss – etwa über das Grundgesetz. Das Grundgesetz schützt zwar primär subjektive Rechte, aber diesen sind grundrechtsdogmatisch entwickelte Gewährleistungspflichten eingeschrieben: objektiv-rechtliche Aufträge also, eine Infrastruktur als Vorbedingung zur Ausübung der Kommunikationsrechte zur Verfügung zu stellen. Dem Status der Grundrechte als Abwehrrechte – es besteht ein Recht auf „unbehinderten“ Zugang – kann also ein Anspruch auf Gewährleistung eines Zugangs zur Seite gestellt werden. Der Staat muss also etwas tun, etwa für Internetzugang für alle sorgen oder durch die Justiz die Grundrechte auch gegen Plattformen verteidigen.
Welche Probleme ergeben sich aus der Tatsache, dass heute ein großer Teil der Meinungsäußerungen auf Social-Media-Plattformen privater Unternehmen stattfindet und nicht im öffentlichen Raum?
Anna Sophia Tiedeke: Private Unternehmen können (innerhalb der gesetzlichen Grenzen) in ihren Nutzungsbedingungen eigene Regeln aufstellen, die in den Online- Kommunikationsräumen gelten. Diese Bedingungen unterscheiden sich zum Teil fundamental von den Bedingungen, unter denen Meinungsäußerungen und Kommunikation in öffentlichen Räumen, wie beispielsweise auf einem Marktplatz, stattfinden. Diese Regeln tendieren teilweise dazu, restriktiver zu sein und angewendet zu werden und damit zulässige Meinungsäußerungen schneller und stärker zu beschränken, als es das Grundgesetz vorsieht. Darüber hinaus ist es problematisch, dass die Plattformen diese Regeln nicht nur festlegen, sondern über einen möglichen Verstoß gegen sie urteilen und durch Löschung von Inhalten oder Sperrung von Nutzer*innenprofilen durchsetzen. Das ist aus einer rechtsstaatlichen Perspektive bedenklich.
 
Amélie Pia Heldt: Einige Social-Media-Plattformen haben sehr hohe Nutzerzahlen. Sie sind nicht mehr nur ein einfacher Hosting-Dienst für nutzergenerierte Inhalte, sondern sie sind zu einem Teil der Öffentlichkeit und damit zu einem Raum für den öffentlichen Diskurs geworden – aber ohne die rechtliche Pflicht, Kommunikationsfreiheiten zu gewährleisten. Im Analogen verhalten wir uns unter Beachtung sozialer Normen, die sich von einem Kontext zum anderen unterscheiden können und oft implizit sind. Ein Transfer dessen hat scheinbar bisher noch nicht stattgefunden, wenn wir auf Social-Media-Plattformen kommunizieren. Jetzt, da wir aufgrund der Pandemie noch mehr digital kommunizieren, könnten wir gleichwertige soziale Normen für die digitale Kommunikation entwickeln.
Welche Rolle können (nationale) Gerichte beim Schutz von Meinungsäußerungsfreiheit auf Social-Media-Plattformen spielen?
Amélie Pia Heldt: Nationale Gerichte können eine äußerst wichtige Rolle beim Schutz der Meinungsäußerungsfreiheit spielen. Allerdings müssen sich auch Gerichte den Herausforderungen unserer Zeit stellen, statt an überholten Lehren festzuhalten, die keinen Schutz für die digitale Öffentlichkeit bieten. Da ich mich vorrangig mit der Dritt- bzw. horizontalen Wirkung der Meinungsfreiheit beschäftige, bin ich davon überzeugt, dass rechtliche Innovation durch Rechtsprechung die soziale Realität konkreter Fälle, die Stimmen der Wissenschaft und die Flexibilität eines Einzelfallansatzes unter Wahrung verfassungsrechtlicher Standards miteinander verbinden kann.
Was können wir gegen Hassrede und Desinformation tun?
Anna Sophia Tiedeke: Plattformen wie Facebook, Wikipedia, YouTube oder Twitter werden zunehmend genutzt als Vehikel für staatliche (Des)Informationsoperationen. Es mangelt dabei nicht an anwendbaren Regeln: von Völkerrecht und regionalem Integrationsrecht zu staatlichem Recht, von Gemeinschaftsstandards bis zu Allgemeinen Geschäftsbedingungen. Doch viele Nutzer*innen und einige Staaten missachten jene Normen, die sinnstiftender Kommunikation vorausgesetzt sind. Neben groß angelegten Informationsoperationen mittels Fake News und künstlichen Accounts (Social Bots) entfaltet auch Hassrede – von Diskriminierungen bis hin zur Holocaustleugnung – eine korrosive Wirkung auf rechtstreues und ethisch stabilisiertes Kommunikationsverhalten in Onlineräumen.
 
Amélie Pia Heldt: Die Gegenmittel gegen Hassrede und Desinformation auf Plattformen sind nicht nur juristischer Natur: Es bedarf zusätzlich einer konsequenten Mitbeachtung der sozialen Ursachen für diese Phänomene. Des Weiteren braucht es mehr Forschung in diesen Bereichen, um die Formen, die Verbreitung, die Konsequenzen und eventuelle Lösungen besser zu verstehen.

Bezüglich Desinformation ist es zum Beispiel wichtig zu verstehen, ob und wenn ja welche Strategie sich hinter einer Kampagne verbirgt, denn die virale Verbreitung solcher Inhalte kann sowohl vom Inhalt als auch von der Art der Verbreitung abhängen. Im Ergebnis bedarf es sehr unterschiedlicher Instrumente, um auf ungewünschte Phänomene wie Hassrede oder Desinformation zu reagieren, je nachdem, ob es sich um eine menschliche, emotionale Handlung handelt oder mit einer manipulativen Absicht vorgetäuscht wird.

Matthias C. Kettemann: Der Umgang mit Desinformation ist normativ sehr komplex. Denn natürlich darf man die Unwahrheit sagen. „Deutschlands Hauptstadt ist Hamburg“ ist falsch, aber als Aussage nicht schädlich. „Die Erde ist flach“ wohl auch nicht. „Klimawandel ist nicht menschengemacht“ schon eher. Richtig gefährlich werden Desinformationen, wenn sie Menschen von sozial abträglichem Verhalten überzeugen sollen, wie „Impfungen schaden“ und „Gesichtsmasken bringen nichts“. In den Bereichen Kampf gegen Desinformation bei Wahlen und Desinformation zu Corona haben die Plattformen gerade in letzter Zeit gezeigt, dass sie ein wachsendes Problembewusstsein haben und bereit sind, robuster für korrekte Aussagen einzutreten. Das ist nicht, wie manche ideologisch Verblendete meinen, der erste Schritt hin zu einem „Wahrheitsministerium“. Menschen dürfen weiterhin denken, was sie wollen und fast alles sagen, was sie wollen. Aber wenn sie Desinformationen streuen, die Menschen individuell schaden oder sogar sozial abträglich sind, dann müssen Plattformen aktiv werden – und werden das auch zunehmend.
Warum ist Interdisziplinarität in unserer Forschung in diesem Bereich so wichtig und was können die Rechtswissenschaften leisten?
Amélie Pia Heldt: Wie bereits erwähnt, gibt es nicht nur juristische Antworten auf die besprochenen Probleme. Sowohl, um die Herausforderungen der digitalen Gesellschaft zu erfassen und anzugehen, als auch bei möglichen Gedankenspielen auf theoretischer Ebene bedarf es eines Zusammenspiels der Disziplinen. Die Rechtswissenschaften können dabei Schutz- und Regulierungslücken aufweisen, sowie auf die verfassungsmäßigen Grenzen der Gesetzgebung aufmerksam machen. 

Weitere Artikel

mehr anzeigen

Newsletter

Infos über aktuelle Projekte, Veranstaltungen und Publikationen des Instituts.

NEWSLETTER ABONNIEREN!