Element 68Element 45Element 44Element 63Element 64Element 43Element 41Element 46Element 47Element 69Element 76Element 62Element 61Element 81Element 82Element 50Element 52Element 79Element 79Element 7Element 8Element 73Element 74Element 17Element 16Element 75Element 13Element 12Element 14Element 15Element 31Element 32Element 59Element 58Element 71Element 70Element 88Element 88Element 56Element 57Element 54Element 55Element 18Element 20Element 23Element 65Element 21Element 22iconsiconsElement 83iconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsElement 84iconsiconsElement 36Element 35Element 1Element 27Element 28Element 30Element 29Element 24Element 25Element 2Element 1Element 66

MEDIA RESEARCH BLOG

Blog Header Background Image
Zur Übersicht
(Nischen-) Plattformen als Experimentierräume für Content Moderation

(Nischen-) Plattformen als Experimentierräume für Content Moderation

10.11.2021

Social Media Plattformen unterliegen in Deutschland wenig gesetzlichen Regeln in Bezug auf nutzer:innengenerierte Inhalte. Diese Regeln geben sie sich aber oft selbst. Wie genau sie dies tun hat ein Forscher:innen-Team des HBI beobachtet.
 
Im Rahmen unseres Forschungsprojektes „Platform Governance im Superwahljahr 2021“ durften wir in den Maschinenraum von kleinen und mittleren Plattformen schauen und deren Moderationsregeln erheben. Folgende Beobachtungen konnten wir festhalten:
 
  • Das NetzDG scheint die Entwicklung von Richtlinien und Policies in den Unternehmen zu beeinflussen – obwohl sie dieses Gesetz ja nicht betrifft.
  • Händische Moderation unterstützt die Auseinandersetzung mit einzelnen Postings und ihrer Umgebung seitens des Content-Moderations-Teams.
  • Regeln zu wahlkampfbezogenen Inhalten liegen in großer Uneinheitlichkeit vor. Sie changieren von aktiver Herunternahme solcher Inhalte bis zur aktiven Unterstützung aller Parteien und demokratischen Wahlen im Allgemeinen.
  
Teilnehmer des Projekts konnten alle Plattformen „unterhalb“ des NetzDGs sein, d.h. solche mit weniger als 2 Mio. registrierten Nutzer:innen im Inland. Diese Landschaft ist sehr heterogen und reicht von allgemeinen Q&A-Plattformen über Nachbarschaftsplattformen bis hin zu LGBTQIA+ Plattformen. 
 
Inhaltemoderation bleibt in Blackbox
Bisher mangelt es in der Governance sowie in der Regulierung von Plattformen an einer Debatte über Plattformen abseits von #BigTech, also Google, Facebook und Co. Die Erhebung von Inhaltsmoderationen bei kleineren Plattformen ermöglicht einen Einblick in Experimentierfelder eines Bereichs, der bei großen Plattformen selten zugänglich ist. Meist muss Forschung auf einzelne Whistlerblower-Berichte und journalistisch-investigative Berichterstattung zurückgreifen. Eine Offenheit darüber, was genau in der Inhaltmoderation passiert und wie sie sich auch ändert, verbleibt häufig als Blackbox.
Kleinere Plattformen geben der Forschung die Chance, diesen Bereich zu erheben und so transparentere Einblicke in verschiedene Formen der Inhaltsmoderation zu bekommen – und das, ohne dass sie von einer Gesetzgebung dazu gezwungen würden. Eine Erhebung ihrer praktisch-innovativ getriebenen Herangehensweisen in der Content Moderation ermöglicht es, aufzuzeigen, wie der Balanceakt von Löschung unerwünschter Inhalte und die Wahrung von Meinungsfreiheit auch ohne eine regulatorische Vorgabe von statten gehen kann.
 
Stellenwert der eigenen Community
Häufig liegt der Schwerpunkt der Arbeitsweisen von kleinen und mittleren Plattformen bei einer engen Verzahnungen von menschen-gesichtetem Content mit der Community, die die Inhalte erstellt. Teilweise wird eine aktive Auseinandersetzung mit den eigenen Communities gefördert, die häufig dabei hilft, die hauseigenen Regeln zur Plattformnutzung durchzusetzen oder in Auseinandersetzungen darauf verweist. Die zum Teil sehr unterschiedlichen Moderationssysteme der erhobenen Plattformen geben jedoch der Beteiligung von Communities einen wichtigen Raum und verschiedene Rollen.
 
 
Erste Ergebnisse der Erhebung
  • Das NetzDG scheint die Entwicklung von Richtlinien und Policies in den Unternehmen zu beeinflussen – obwohl sie dieses Gesetz ja nicht betrifft. Das Gesetz scheint insofern eine indirekte Wirkung zu haben, als dass zumindest über die Anpassung nachgedacht wird, wenn die vorgeschriebenen Maßnahmen den Plattformen als sinnvoll und nützlich erscheinen. Diese liegen im Bereich der Meldewegsverbesserung, keineswegs aber in der Weitergabe von Daten der Nutzer:innen. Auch Wiederherstellungen von gelöschten Inhalten bei Einspruch der Nutzer:innen wurden als sehr kritisch gesehen.
     
  • Händische Moderation (also solche, die sich Zeit nimmt, auch in den Kontext der Postenden zu schauen) unterstützt eine dezidierte Auseinandersetzung mit dem Posting und seiner Umgebung seitens des Content-Moderations-Teams und nuanciert sie. Ein Beispiel: Sogenanntes „Agenda Setting im Wahlkampf” wird schnell unterbunden, da dahinter meist Accounts stehen, die sich nur zu einem speziellen Zweck gründen und deren Ziel es ist, politische Gegner:innen zu verunglimpfen. Das schließt auch an ein vermehrt negatives Campaigning an, welches bei konservativen Gruppierungen im Online-Wahlkampf gemessen wurde. Die händische Moderation hilft aber auch bei der Unterbindung von Agenda-Settings, die im Bereich der digitalen Gewalt angesiedelt sind wie LoveScams und Cyber-Grooming, aber auch bei der Unterbindung von Angeboten oder Geschäftsinteressen, die auf Plattformen verboten sind.
     
  • Der Umgang mit wahlkampfbezogenen Inhalten unterliegt immer der eigenen Regelbildung der Plattformen. Vom Erlauben explizit politischer Gruppen, bis hin zu Profilbildern mit Parteibezug sowie der Duldung der Aktivität von Bundestagskandidat:innen oder bewusstem Beschränken des Themas, sind eine Vielzahl von Plattformregeln vorhanden. Einige Plattformen unterstützen auch bewusst und aktiv den Aufruf zur demokratischen Wahl.
     
  • Communitybeteiligung (z.B. als verifizierte Hinweisgebende „Trusted Flagger” oder auch im Peer-Review-Verfahren während der Freigabe von hochgeladenem Bildmaterial) scheint eine erhöhte Identifikation von User:innen mit der Plattform und ihren Regeln hervorzurufen. Dabei unterscheiden sich die Plattformen in Vielfalt und Methode, wie aktiv oder passiv moderiert wird und an welchen Stellen Community eingebunden wird.
     
  • Organisations-soziologisch ist eine anfängliche strukturelle Vernachlässigung des Ausbaus einer Content-Moderation bei den Unternehmen festzustellen. Relativ unabhängig davon, wann das Unternehmen mit der Plattform in die Gründungsphase eingetreten ist, ist der Bereich des Content- und Beschwerde-Managements innerhalb der Organisationsstruktur zu Beginn häufig mit wenig Prioritäten und Ressourcen zur Entwicklung ausgestattet worden und hat erst in den letzten Jahren einen Ausbau, Standardisierung und Entwicklung erhalten.
 
Darüber hinaus wurde eine generelle Offenheit gegenüber Wissenschaft und Forschung beobachtet und die Bereitschaft, für ebensolche Erhebungen zu kooperieren und Daten zur Verfügung zu stellen.
 
Bisher wurde lediglich mit einigen wenigen Plattformen gearbeitet, jedoch besteht die Perspektive, diese Leerstelle mit mehr evidenz-basierten Erhebung bereichern zu können, um eine vielfältige, differenzierte und informierte Debatte dazu im Bereich der Regulierung und der zukünftigen Regelbildung zu unterstützen und nuancierte Regulierungsvorschläge machen zu können.
 
Wer mehr zum Projekt Nischenplattformen erfahren möchte, kann sich auch die neue Podcastfolge des BredowCasts mit Christina Dinar anhören, in dem weitere Details und Hintergründe des Projekts erklärt werden. Mehr zu Sozialen Netzwerken im Wahlkampf gibt es auch im Podcast des Weizenbaum Forums. Über inklusive digitale Räume spricht Christina Dinar im Interview in Americas Dialogues.
  
 
Bild: Girl with the red hat /unsplash

Weitere Artikel

mehr anzeigen

Newsletter

Infos über aktuelle Projekte, Veranstaltungen und Publikationen des Instituts.

NEWSLETTER ABONNIEREN!