Neben Sozialen Netzwerken beeinflussen App Stores maßgeblich, welche Inhalte online verfügbar sind. Ebenso wie bei Sozialen Netzwerken wirft das Verhalten von App Stores die Frage auf, welche Akteur:innen jenseits des Staats demokratisch legitimiert sind zu entscheiden, wer (wie) im Internet kommunizieren kann. Das deutsche Medienrecht bietet keine zufriedenstellenden Lösungen für die praktischen wie rechtlichen Herausforderungen, welche die Content Governance durch App Stores in sich birgt. Auf europäischer Ebene sehen die Entwürfe von Digital Services Act (DSA) und Digital Markets Act (DMA) erste sinnvolle Maßnahmen zur Regulierung der Content Governance durch App Stores vor. Besonders die Regeln im DSA-Entwurf begrenzen die einseitige Macht von App Stores, ohne Rechtsgrundlage Apps zu löschen, und werden zu mehr Rechtssicherheit führen.
von Vincent Hofmann, Christina Dinar, Matthias C. Kettemann, Lena Hinrichs, Julius Böke und Max Gradulewski1. Einleitung
Soziale Netzwerke wie Facebook, TikTok oder Twitter moderieren die Inhalte, die auf ihren Plattformen veröffentlicht werden. Die Netzwerke löschen Inhalte, sperren Accounts (teilweise sogar die von Regierungschefs) oder versehen Inhalte mit Hinweisen, es könnte sich um falsche Informationen handeln. Diese Praxis findet im Spannungsfeld zwischen Meinungsfreiheit der Betroffenen und dem Schutz der Allgemeinheit vor gefährlichen oder rechtswidrigen Inhalten statt.Betrachtet man die Kette von Prozessschritten auf dem Weg von der Entwicklung eines Sozialen Netzwerks bis hin zur Löschung eines bestimmten Inhalts offenbart sich, wie viele weitere Akteur:innen bei Verbreitung und Entfernung von Inhalten mitmischen. Diese Akteur:innen setzen durch die Nutzungsbedingungen ihrer jeweiligen Dienste Recht, welches in der Bedeutung für die Ausübung von Freiheiten dem staatlichen Recht und den Bedingungen der Sozialen Netzwerke nahekommt. Eine derart mächtige Position haben auch die App Stores von Google und Apple inne. Der Playstore (Google) und App Store (Apple) erreichen zusammen einen Marktanteil beim von 94 Prozent bei Downloads mobiler Apps.[1] Dies macht App-Entwickler:innen von der Verbreitung durch die App Stores abhängig: Ist eine App hier nicht verfügbar, wird sie kaum Nutzer:innen und somit Umsatz auf mobilen Geräten erreichen können.
Zuletzt wurde ein Fall aus Russland bekannt, als Google und Apple eine „Navalny App“ aus ihren Stores entfernten, mit der die russische Opposition das „takische Wählen” und die Identifizierung von Oppositionskandidat:innen erleichtert hatten.
Im Superwahljahr 2021 bilden sich so viele Menschen wie noch nie zuvor ihre Meinung im Internet. Daher ist es von besonderer Bedeutung für demokratische Prozesse, auch die hinter den Sozialen Netzwerken stehenden Unternehmen und ihre Content Governance zu analysieren.[2] Diese Studie fasst den rechtlichen Rahmen für die Content Governance durch App Stores zusammen. Dabei wird auf die Besonderheiten im Vergleich von Content Governance durch Soziale Netzwerke und App Stores eingegangen. Insbesondere mit Blick auf die Entwürfe der EU-Kommission von DSA und DMA wird die Frage beantwortet, ob nationales oder europäisches Recht geeignete Antworten auf die Probleme der Content Governance durch Apps Stores geben können.
Marktmacht der App Stores
Ihrer großen Marktmacht sind sich Google und Apple durchaus bewusst, was sich in deren Marktverhalten zeigt: Beide Stores verlangen 30 Prozent Provision für alle in ihren Stores generierten Umsätze und auf sogenannte In-App-Käufe (kostenpflichtige Transaktionen, die in der App ohne direktes Aufrufen des App Stores getätigt werden). Dabei war es Entwickler:innen außerdem bis vor Kurzem verboten, auf günstigere Optionen außerhalb der App Stores hinzuweisen. Apple gestattete sogar ausschließlich Zahlungen via ApplePay.Gegen dieses wirtschaftliche Verhalten regt sich Widerstand. So klagt der Spieleentwickler Epic Games (Fortnite) in den USA gegen die Geschäftspraktiken. Im Urteil vom 10.09.2021, gegen welches Epic Games Rechtsmittel eingelegt hat, wird Apple allerdings nicht als Monopolist auf dem App-Markt bewertet. Daher wurde auch die Provision nicht durch das Gericht bemängelt.[3] Entschieden wurde jedoch, dass Apple seinen Entwickler:innen nicht mehr verbieten darf, auf günstigere Angebote außerhalb der App Stores zu verweisen. Südkorea verabschiedete erst kürzlich ein Gesetz, welches Provisionen in Höhe von 30 Prozent ebenso unterbindet wie das Verbot, auf günstigere Angebote hinzuweisen.[4]
Content Governance durch App Stores
Die App Stores verlangen den durch sie verbreiteten Apps nicht nur wirtschaftlich einiges ab. Auch inhaltlich wirken die App Stores auf die Entwickler:innen ein. So verbannten Google und Apple das unter Rechtsextremen und Anhänger:innen der Erstürmung des Kapitols beliebte Netzwerk „Parler“ aus ihren Stores, weil dieses die dort veröffentlichten Inhalte nicht ausreichend moderierte.[5] Parler versuchte daraufhin, den Vorgaben der App Stores zu entsprechen und ist mittlerweile im App Store von Apple wieder verfügbar, hingegen bei Google nach wie vor nicht.[6] Ebenfalls aus den Stores verschwand die App „Unjected“ wegen des Vorwurfs, gegen die Verbreitung von Falschinformationen nicht ausreichend vorzugehen.[7] Dort konnten sich ungeimpfte Personen austauschen und verabreden, weshalb die App den Spitznamen „Tinder für Impfgegner“ erhielt. Auf Telegram gehen die App Stores vermutlich sogar gegen einzelne Kanäle vor. So wurden die Kanäle des rechtsextremen Verschwörungstheoretikers Attila Hildmann vermutlich auf Druck der App Stores in den Android und iOS-Versionen der App gesperrt.[8]Das Vorgehen von App Stores gegen Falschinformationen und Hassrede birgt die Gefahren, die auch bei der Moderation von Inhalten durch Soziale Netzwerke lauern: Wie wird, gerade bei nicht rechtswidrigen, aber dennoch „schädlichen” Inhalten (lawful but awful) entschieden, was gelöscht wird und was nicht?
2. Rechtsrahmen
Die Löschung einer App greift in Grundrechte der App-Betreiber:innen und der Nutzer:innen ein. Die Betreiber:innen sind zunächst in ihrer Berufsfreiheit nach Art. 12 Abs. 1 GG betroffen. Je nach Inhalt der gesperrten App kann auch die Meinungsfreiheit der Betreiber:innen (Art. 5 Abs. 1 S. 1 GG) verletzt sein, wenn die Betreiber:innen ihre App selbst zur Verbreitung oder Bildung der eigenen Meinung verwenden. Die Nutzer:innen sind bei derart verwendeten Apps ebenfalls in ihrer Meinungsäußerungs- und Meinungsbildungsfreiheit verletzt. Dies ist jedoch bei jeder App einzeln zu entscheiden und hängt davon ab, welche Funktionen die App bietet und in welchem Umfang sie für die Meinungsäußerung oder -bildung der Nutzer:innen von Bedeutung ist. Dabei spielt die Größe der hinter der App stehenden Plattform oder deren Spezialisierung auf einen bestimmten Themenkomplex eine Rolle. App Stores als private Unternehmen sind allerdings nicht unmittelbar an Grundrecht gebunden. Diese wirken nur mittelbar im Verhältnis zwischen Nutzer:innen und Unternehmen. Denn die Maßnahmen der App Stores gegen einzelne Apps sind auch Ausdruck der unternehmerischen Freiheit der App Stores, Art. 16 EU-GRCh. Diese können als private Unternehmen grundsätzlich verkaufen oder sperren, was sie möchten. Der BGH entschied in einem Fall zu Facebook jedoch, dass diese aufgrund ihres starken Einflusses insbesondere auf die Meinungsfreiheit die Grundrechte der Nutzer:innen in besonderem Maße zu berücksichtigen hätten.[9]Besonders im Gegensatz zur Moderation der Sozialen Netzwerke ist bei den App Stores, dass diese technisch nur die gesamte App aus ihren Stores entfernen können. Ein gezieltes Eingreifen gegen einzelne rechtswidrige Inhalte ist nicht möglich, wodurch auch legale Inhalte und solche Inhalte, gegen welche sich die Sperre der App Stores nicht richten sollte, betroffen sind. Allerdings kann der von Nutzer:innen veröffentlichte Inhalt auch nach dem Ausschluss einer App weiterhin verfügbar bleiben, sei es über Webversionen, den Store des jeweiligen Wettbewerbers oder im Fall von Android über alternative App Stores. „Lediglich” die Reichweite eines Inhalts wird durch die Maßnahmen der App Stores verringert. Dies kann je nach Einbruch der Reichweite einer Löschung jedoch gleichkommen.
Dabei ist nicht nur Löschen oder Sperren ein wirkungsvolles Mittel der App Stores. Da selbst eine zeitweise Entfernung aus den Stores zu massiven Umsatzeinbußen führen kann, versuchen Entwickler:innen, solche Maßnahmen proaktiv durch AGB-konforme(re)s Verhalten zu verhindern.[10] Dies zeigte das Beispiel Telegram, als dort vermutlich auf Druck der App Stores einzelne rechtsradikale bzw. den Holocaust leugnende Kanäle in den über App Store und Playstore vertriebenen Apps gesperrt wurden.
Die Grundlage für solche Maßnahmen haben die App Stores in ihren Regeln zur Nutzung der Stores festgeschrieben. Diese bilden zusammen mit den Normen staatlicher Ordnung das geltende Regelwerk für die „Content Governance” durch die App Stores.
3. Private Ordnungen
Apple
Apple hat in den „App Store Review Guidelines” festgelegt, wann Apps nicht zugelassen bzw. gesperrt werden. Demnach müssen Apps mit nutzer:innengenerierten Inhalten ein Content Governance System etabliert haben und Maßnahmen gegen Nutzer:innen wie die Sperre von Profilen oder Löschung von Inhalten vornehmen können. Apple spricht hier von „offensive content” und „abusive user”, gegen welche die App-Betreiber:innen vorzugehen haben. Dabei sei auch ein automatisches System einzurichten, welches die Inhalte der Nutzer:innen auf „objectionable material” (unzulässiges Material) untersucht und deren Upload verhindert. Auch muss die App einen Weg zur einfachen Kontaktaufnahme für Nutzer:innen bieten.Apple bleibt somit vage; insbesondere was „offensive content” ist, wird nicht spezifiziert. Detaillierter werden die Guidelines beim Verbot spezieller Inhalte. Diese Regeln gelten unabhängig davon, ob diese von Nutzer:innen oder den Entwickler:innen der App verbreitet werden. „Apps should not include content that is offensive, insensitive, upsetting, intended to disgust, in exceptionally poor taste, or just plain creepy.” Insbesondere der letzte Teil der Vorschrift „just plain creepy” verdeutlicht, wie viel Spielraum Apple sich selbst bei der Bewertung der Apps einräumt. Zwar werden diese verbotenen Inhalte im darauffolgenden Absatz noch erläutert. Dies erfolgt jedoch nur anhand von Beispielen in einer nicht abschließenden Liste.
Die App Store Review Guidelines bilden somit nur eine wenig spezifische Basis für die Frage, welche Inhalte nicht im App Store zu finden sein werden oder aus diesem wieder gelöscht werden.
Besonders bemerkenswert sind Googles Bedingungen zu pornographischen Inhalten. Diese sind nur dann erlaubt, „wenn sie hauptsächlich pädagogischen, dokumentarischen, wissenschaftlichen oder künstlerischen Zwecken dienen und nicht überflüssig sind.” Welche Inhalte wann überflüssig sind, ist nicht definiert und bleibt in Googles Ermessen.
Zwischenfazit
Die durch Apple und Google gesetzten Normen zur Löschung von Apps lassen viel Raum für Interpretation. Dies ist mit Blick auf die Normdurchsetzung verständlich: Den selbst geschaffenen Raum nutzen die App Stores bei der Durchsetzung der Normen, wobei ein möglichst weiter Rahmen mehr Flexibilität bedeutet. Und nicht nur die Bedingungen der App Stores sind opak, auch die Praxis der „Moderation” durch die App Stores lässt wenig System erkennen.[12]4. Staatliche Ordnung
4.1. Kartellrecht
Der bereits angesprochene Marktanteil von beinahe 100 Prozent von Google und Apple bei mobilen Apps birgt auch kartellrechtlich einige Risiken. Die kartellrechtlichen Maßnahmen gegen die App Stores beziehen sich, in der Natur des Kartellrechts liegend, auf die wirtschaftlichen Folgen der Vorherrschaft der Unternehmen und gehen nicht direkt auf deren „Content Governance” ein. Sie können somit allein keine Antwort auf die aufgeworfenen Fragen der Content Governance bieten. Dennoch ist die Verringerung der wirtschaftlichen Macht und mithin die Abhängigkeit der Entwickler:innen von den App Stores ein entscheidender Baustein, um die Bedeutung von Moderationsentscheidungen der App Stores zu verringern.In verschiedenen Ländern laufen Verfahren gegen die App Stores, in welchen diesen ein Missbrauch der marktbeherrschenden Stellung vorgeworfen wird.[13] Konkreter Anlass ist unter anderem das Provisionsmodell der App Stores. Apple und Google verlangen, wie oben schon angesprochen, pauschal 30 Prozent für jede kostenpflichtige Transaktion.[14] Apple verbot es seinen App-Entwickler:innen darüber hinaus, andere Zahlungsmethoden außer den eigenen Dienst ApplePay zuzulassen. Auch durften die Entwickler:innen nicht darauf hinweisen, dass die App oder per In-App-Kauf zu erstehende Dienste außerhalb der iOS-Infrastruktur günstiger zu erwerben seien.[15] Neben zivilrechtlichen Klagen schritten aufgrund dieses Marktverhaltens sowohl in den USA als auch in der EU die Wettbewerbsbehörden gegen die App Stores ein.[16] Wie bereits erwähnt, verbot ein US-Bundesgericht im Rechtsstreit gegen Epic, dass Apple die Entwickler:innen von einem Verweis auf günstigere Vertriebswege abhält. Und Südkorea verabschiedete ein Gesetz, welches unter anderem die Provisionen in Höhe von 30 Prozent verbot.
4.2. Deutsches Medienrecht
Im nationalen Medienrecht bilden das Netzwerkdurchsetzungsgesetz (NetzDG) und der Medienstaatsvertrag (MStV) den Rahmen für Content Governance in Internetmedien.Das für soziale Netzwerke geltende NetzDG gilt jedoch nicht für App Stores. Damit gelten für diese die umfassenden Pflichten zur Löschung rechtswidriger Inhalte ebenso wenig wie die Pflicht zur Veröffentlichung eines Berichts über die erfolgten Löschungen und Profil-Sperren.[17]
Die im Medienstaatsvertrag enthaltenen Regelungen für Medienintermediäre gelten dagegen auch für App Stores. Dies verpflichtet sie zu Transparenz und Diskriminierungsfreiheit. Was zunächst wie eine Lösung der Probleme von „Content Governance” klingt, ist zur Regelung dieses Themenkomplexes jedoch kaum geeignet. Das Diskriminierungsverbot gilt nur für die Selektion journalistisch-redaktioneller Inhalte. Auf Sozialen Netzwerken sind zwar auch journalistisch-redaktionelle Inhalte zu finden. Diese machen neben nicht-professionellen Inhalten jedoch nur einen Teil der veröffentlichten Inhalte aus. Es ist daher anzunehmen, dass die Apps sozialer Netzwerke selbst nicht als journalistisch-redaktionelle Inhalte einzustufen sind. Doch selbst wenn man von so einer Einstufung ausginge, bedeutete dies kaum einen Unterschied. Eine Diskriminierung wird in § 94 Abs. 2 MStV definiert und ist eine systematische Abweichung von den selbst gegebenen Regeln zulasten eines journalistisch-redaktionellen Inhalts. Da die selbst gegebenen Normen der Netzwerke äußerst vage formuliert sind, wird kaum ein systematischer Verstoß gegen eben diese festzustellen sein. Entsprechend läuft das Diskriminierungsverbot des MStV im Falle der App Stores leer.
Die besagte Transparenzpflicht beschränkt sich auf die Pflicht zur Offenlegung der Kriterien des Empfehlungsalgorithmus und der Kriterien, wann eine App gesperrt oder entfernt wird, also erneut: die selbstgesteckten Normen der App Stores. Eine Pflicht zur Veröffentlichung eines Transparenzberichts über die Moderationspraxis sieht der MStV ebenso wenig vor wie eine Pflicht zum Entfernen von Inhalten.
Einen wirksamen Rechtsrahmen zur Regelung der „Content Governance” durch App Stores bietet das nationale Medienrecht somit nicht.
4.3. Europäische Gesetzesvorhaben
Auf Europäischer Ebene sind es insbesondere die Entwürfe des Digital Services Act (DSA) und Digital Markets Act (DMA), welche grundlegende Änderungen der Rechtslage auf digitalen Märkten vorsehen. Auch für App Stores werden künftig neue Regeln gelten.4.3.1. Digital Markets Act (DMA)
Der noch im Entwurf befindliche DMA sieht wettbewerbsrechtliche Maßnahmen vor, welche die wirtschaftliche Vormachtstellung u. a. der App Stores beschränken sollen. Im Mittelpunkt steht hier die Einstufung als sog. Gatekeeper. Laut Art. 3 DMA sind damit sehr große Tech-Unternehmen gemeint, die als Anbieter zentraler Plattformdienste starken Einfluss auf den EU-Binnenmarkt haben, eine starke Vermittlungsposition (z. B. durch ihre Nutzer:innenzahlen) zwischen gewerblichen Nutzer:innen und Endnutzer:innen innehaben sowie eine gefestigte und dauerhafte Position einnehmen (Dauer der Geschäftstätigkeit). Die App Stores von Google und Apple gehören zu sehr großen Tech-Unternehmen und sind durch ihre enorme Marktmacht auch innerhalb der EU von besonderer Bedeutung für die Vermittlung von Kund:innen an die Entwickler:innen von mobilen Apps. Es ist somit wahrscheinlich, dass diese als Gatekeeper eingestuft werden.Für Gatekeeper sieht der DMA einige neue Regelungen vor. Nach Art. 5 lit. f soll es Gatekeepern verboten werden, Geschäftskund:innen und Endnutzer:innen zur Anmeldung bei Zusatzdiensten zu zwingen. Demnach wäre es künftig möglich, Android auch ohne Gmail-Konto zu nutzen. Ebenso muss es Nutzer:innen ermöglicht werden, vorinstallierte Software und Apps wieder deinstallieren zu können, sofern sie nicht zwingend zum Funktionieren des Betriebssystems notwendig sind. Dies umfasst auch die App Stores selbst.
Personenbezogene Daten von Kund:innen dürfen mit anderen Daten von Drittanbietern nur mit ausdrücklicher Zustimmung verknüpft werden (Art. 5 lit. a). Auch dürfen Nutzer:innen nicht automatisch bei weiteren Diensten angemeldet werden.
Nach Art. 6 lit. a dürfen die Gatekeeper in Zukunft nicht mehr solche nicht-öffentlichen Daten von geschäftlichen Nutzer:innen und deren Endnutzer:innen im Wettbewerb mit den geschäftlichen Nutzer:innen verwenden, wenn diese Daten durch die Nutzung der Gatekepper-Plattform entstanden sind. Auch müssten Daten, die aus dem Vertrieb von Apps gewonnen werden, mit den Entwickler:innen geteilt werden. Geschäftskund:innen und Endnutzer:innen von Gatekeepern sollen das Recht auf Datenportabilität haben und einen Echtzeitzugang zu diesen Daten erhalten. Geschäftskund:innen sollen unentgeltlichen Echtzeitzugriff auf Daten über ihre Umsätze, Kund:innen usw. haben (Art. 6 lit. h und i). Dies soll den Datenvorsprung zwischen den gewerblichen Nutzer:innen und den Plattformen verkleinern.
Ebenso dürfen die App Stores den App-Entwickler:innen nicht verbieten, dass deren Produkte außerhalb des App Stores günstiger angeboten werden (Art. 5 lit. b DMA). Gatekeeper-Betriebssysteme müssen künftig auch Drittanbietern die Möglichkeit geben, Apps auf dem System zu installieren (Art. 6 lit. c). Diese Regelung würde Apple zu einer Öffnung gegenüber alternativen App Stores zwingen, wie sie auf Android-Geräten oder PCs Standard ist.
Der DMA wendet sich somit primär gegen die Marktmacht der App Stores. So soll insbesondere die Vorherrschaft über die gewonnenen Daten reduziert und der damit verbundene enorme Wettbewerbsvorteil, ideal auf die Wünsche von Kund:innen eingehen zu können, vermindert werden. Ebenso soll der Markt mobiler Apps für andere Anbieter:innen von App Stores als Apple und Google geöffnet werden. Dies wirkt sich mittelbar auch auf die Quasi-Content-Moderation der App Stores aus: Je weniger abhängig die Entwickler:innen von den App Stores sind, desto weniger einschneidend sind deren Moderationsentscheidungen für die Entwickler:innen.
Beachtlich ist, dass Googles Betriebssystem Android bereits offen für Apps von Drittanbieter:innen ist. Dennoch ist der Marktanteil des Playstores sehr hoch. Allein die Möglichkeit, den Playstore zu umgehen, bietet somit zwar theoretisch die Chance eines von Google uanbhängigen App-Vertriebs. Das Entfernen aus dem App Store führt jedoch weiterhin zu großen finanziellen Einbußen und dem Verlust von Reichweite. Dennoch dürfte diese Maßnahme in Verbindung mit den weiteren, die marktbeherrschende Stellung der App Stores begrenzenden Maßnahmen langfristig zu einem Rückgang der Marktmacht von Playstore und Apples App Store führen.
4.3.2 Digital Services Act (DAS)
Anders als der DMA reguliert der DSA die Content Governance von App Stores unmittelbar. Dort sind explizite Regeln wie Informations- und Transparenzpflichten zu finden. Der DSA sieht für unterschiedliche Kategorien von Dienste-Anbietern verschiedene Pflichten vor. Dies sind Hosting-Diensteanbieter, Anbieter von Vermittlungsdiensten, Online-Plattformen und sehr große Online-Plattformen.Nach Erwägungsgrund 13 des Entwurfs zum DSA sind Online-Marktplätze als Vermittlungsdienste, Online-Plattformen und Hosting-Diensteanbieter zu klassifizieren. Aufgrund der hohen Zahl von Nutzer:innen sind die App Stores von Google und Apple auch als sehr große Online-Plattformen einzustufen.[18]
Zunächst haben die App Stores nach Art. 13, 23 und 33 alle sechs Monate einen Transparenzbericht zu veröffentlichen, welcher die Maßnahmen gegen Inhalte offenlegen muss. Dies umfasst als illegal eingestufte Inhalte ebenso wie Inhalte, die gegen die Nutzungsbedingungen verstoßen. Auch die behördlichen Anordnungen zur Löschung und die Meldungen von Nutzer:innen über nicht erlaubte Inhalte müssen hier offengelegt werden. Art. 14 verpflichtet zu einem Verfahren, in welchem Nutzer:innen Inhalte als Verstöße gegen staatliches Recht oder die Nutzungsbedingungen melden können.
Wird ein Inhalt, also im Falle der App Stores eine App, gesperrt oder gelöscht, so muss die Nutzer:in (App-Betreiber:in) eine Begründung der Entscheidung erhalten. Dies soll die Grundlage für eine interne Beschwerde bilden. Ein Beschwerdesystem muss nach Art. 17 eingerichtet werden und darf nicht ausschließlich von Computersystemen durchgeführt werden. Ein solches Verfahren wird bereits heute von den App Stores angeboten. Dies führt allerdings nicht konsequent zu einer inhaltlichen Auseinandersetzung mit dem Anliegen der Betreiber:innen.[19] Damit dies zukünftig anders verläuft, wird das Verfahren durch die Streitbeilegungsstelle nach Art. 18 ergänzt. Die von Entscheidungen der App Stores Betroffenen haben demnach die Möglichkeit, eine unparteiische Streitbeilegungsstelle anzurufen, welche für die Plattformen verbindliche Entscheidungen fällen kann. Dies führt zu einer unparteiischen Überprüfung der Entscheidung des App Stores und wahrt somit die Rechte der Nutzer:innen. Die Gebühren eines solchen Verfahrens dürfen nur die tatsächlichen Kosten umfassen und sind nur im Falle einer Entscheidung zugunsten der App Stores von der Nutzer:in zu tragen.
Als sehr große Online-Plattformen müssen sich die App Stores einer Risikobewertung unterziehen, ob von ihnen ein systemisches Risiko für u. a. die Wahrnehmung von Grundrechten besteht, Art. 26. Um solchen Risiken entgegenzuwirken, können sie Maßnahmen nach Art. 27 ergreifen, welcher u. a. die Zusammenarbeit mit vertrauenswürdigen Hinweisgeber:innen oder eine Anpassung der Moderationspraxis vorsieht. Ob die sehr große Online-Plattform dem von ihr ausgehenden Risiko für die in Art. 26 genannten Schutzgüter angemessen entgegenwirkt, wird mindestens jährlich durch eine unabhängige Stelle begutachtet, die von den Plattformen zu bezahlen ist.
Der DSA regelt sehr detailliert die Voraussetzungen von Content Governance durch Online-Diensteanbieter. Dabei wurde erkannt, dass die große Frage der Content Governance, wer entscheiden darf, was öffentlich zugänglich ist, nicht nur die Sozialen Netzwerke selbst betrifft. Durch das Streitbeilegungsverfahren nach Art. 18 wird den Online-Plattformen ein Stück weit die Deutungshoheit darüber entzogen, welche Inhalte als „schädlich” einzustufen sind. Ob die Vorgabe, dass nur tatsächlich entstandene Kosten der Nutzer:in im Falle einer Niederlage in Rechnung zu stellen sind, die Schwelle für ein Verfahren wirklich niedrig hält, ist für private Nutzer:innen zweifelhaft. Allerdings ist ein solches Verfahren für kommerzielle Nutzer:innen dennoch interessant, und die Kosten sind im Vergleich zu den Verlusten durch Nicht-Erreichbarkeit im App Store gering.
Dies ist jedoch ein weiteres Problem der Streitbeilegung: Jeder Tag der Nicht-Erreichbarkeit einer App kostet Geld und Nutzer:innen. Dass ein Verfahren nach Art. 18 DSA so schnell abläuft, dass das Interesse der Entwickler:innen an einer schnellen Entscheidung gewahrt bleiben, ist zu bezweifeln. Wie für staatliche Gerichte sollte dies durch eine Form des Eilverfahrens berücksichtigt werden. Zwar bleibt der Rechtsweg vor staatlichen Gerichten durch das Streitbeilegungsverfahren unberührt. Den Entwickler:innen steht somit auch weiterhin ein zivilgerichtliches (Eil)-Verfahren offen. Die Idee des Streitbeilegungsverfahren, Hürden der Auseinandersetzung mit den Plattformen abzubauen, sollte jedoch auch bei eilbedürftigen Entscheidungen gelten und im entsprechenden Verfahren berücksichtigt werden.
Insbesondere die Pflicht zur Begründung einer Entscheidung, die Pflicht zur Transparenz der Content Governance und auch das Streitbeilegungsverfahren sind sinnvolle Instrumente des DSA, welche das Spannungsfeld der Content Governance (was wird wann entfernt, wer entscheidet dies und was können Nutzer:innen dagegen tun?) auch für App Stores in eine gute Richtung lenkt.
Wie beim DMA gilt auch beim DSA, dass der Entwurf eben noch nicht mehr als ein Entwurf ist und der finale Wortlaut, insbesondere die konkreten Vorgaben an die Transparenzberichte oder Systeme zur Content Governance, entscheidenden Einfluss auf die Wirksamkeit der rechtlichen Instrumente haben wird. Das weitere Gesetzgebungsverfahren könnte jedoch auch positive Änderungen wie die Einführung eines Eilverfahrens bei der Streitbeilegung oder die Einführung fester Ansprechpartner:innen im Rahmen der Beschwerdeverfahrens bringen, was zu begrüßen wäre.
4.4 Fazit
Die derzeitige Rechtslage räumt den App Stores weitgehende Freiheiten ein. Weder unterfallen sie dem NetzDG, noch sieht der MStV wirksame Maßnahmen vor. Dies wird sich mit Einführung von DSA und DMA jedoch ändern. Sollten die Richtlinien in ihrer derzeitigen Form verabschiedet werden, bedeutet dies deutliche Hürden für die Geschäftspraktiken der App Stores. So sind insbesondere die Pflicht zur Veröffentlichung von Transparenzberichten und die Beschränkung der wirtschaftlichen Macht, allen voran die Pflicht, alternative App Stores zuzulassen, entscheidende Bausteine bei der Stärkung der Rechte von Nutzer:innen und App-Entwickler:innen bezogen auf Meinungsbildung und Meinungsäußerung. Bei der Definition eines Beschwerdeprozesses sollte regulatorisch bedacht werden, dass die derzeitigen Prozesse theoretisch ausreichende Beteiligung bieten, in der Praxis den Anliegen der App-Entwickler:innen jedoch wenig Gehör verschaffen.Der Versuch der Einflussnahme auf den Gesetzgebungsprozess ist wegen der einschneidenden Rechtsänderungen bereits in vollem Gange.[20] Aus Sicht einer die Rechte aller Beteiligten wahrenden Content Governance bleibt zu hoffen, dass der bestehende Entwurf nicht weiter aufgeweicht wird.
5. Ausblick
Neben den App Stores nehmen noch weitere Akteure Einfluss auf die Verbreitung von Inhalten. So gab Onlyfans kürzlich bekannt, der Dienst werde in Zukunft keine pornografischen Inhalte mehr dulden. Dies geschah aufgrund des Drucks von Zahlungsanbietern, welche ein Ende der Abwicklung der Zahlungen an Onlyfans androhten.[21] Ähnlich verlief die Auseinandersetzung zwischen Pornhub und den Zahlungsdienstleistern Visa und Mastercard. Pornhub änderte ebenfalls seine Nutzungsbedingungen, weil ihnen die Verbreitung von illegalen Inhalten vorgeworfen wurde.[22]Ebenso können die Anbieter technischer Infrastruktur Einfluss auf Netzwerke nehmen. Diese Dienste wie Cloud Services oder DNS-Dienste können die Netzwerke vollständig unerreichbar machen. Auch bei diesen im Hintergrund agierenden Akteuren trifft die unternehmerische Freiheit des Dienstleisters auf die Freiheit der Plattformbetreiber und je nach Größe des Netzwerks auch auf die Grundrechte der auf der Plattform aktiven Nutzer:innen.
Medienberichte zufolge wird der Serverdienst Amazon Web Services ein Tool zur Content Governance einführen, welches verbotene Inhalte selbstständig erkennt und entfernt. Damit soll die bisher wenig effiziente und auf Meldungen von Nutzer:innen angewiesene Praxis aufgegeben werden.[23]
Diese Problematik wirft erneut die grundsätzliche Frage auf: Wer soll sich wie einmischen dürfen? Durch die enorme Reichweite von Plattformen haben diese auch eine große Bedeutung für die Wahrung bestimmter Grundrechte. Strafgesetze wurden in Deutschland durch demokratisch legitimierte Gesetzgebungsorgane verabschiedet. Wenn es sich aber um legale Inhalte handelt fehlt diese demokratische Legitimität, wenn private Akteure selbstständig über deren Verbreitung entscheiden. So wurde eine Social Media Dating App wegen eines aus einer Gurke und zwei Tomaten bestehenden Emojis aus den App Stores verbannt.[24]
Da Soziale Netzwerke zu wichtigen Instrumenten von Meinungsbildung und Meinungsäußerung geworden sind, müssen nicht nur die Netzwerke selbst in die Pflicht genommen werden, sondern auch deren Behandlung durch im Hintergrund agierende Anbieter:innen bei der Regulierung bedacht werden. Dies ist durch die europäischen Gesetzesvorhaben bereits in begrüßenswerten Umfang geschehen. Bei den finalen Formulierungen der bisherigen Entwürfe ist jedoch insbesondere darauf zu achten, dass solche Dienste auch weiterhin von den Richtlinien erfasst werden. Auch sollte überprüft werden, ob weitere einflussreiche Akteure wie Zahlungsdiensteanbieter in ihrer Funktion als Content Moderatoren durch die neuen Gesetzesvorhaben erfasst werden sollten.
Photo by Pathum Danthanarayana on Unsplash
USA: Martin Coulter (2021). Google Faces Nationwide Antitrust Lawsuit Over Android App Store. businessinsider.com, 08.07.2021.