Sandra Howe
I. Einleitung
In den vergangenen Jahrzehnten haben wir eine Ausbreitung der Nutzung von Internetplattformen als Mittel der Kommunikation und des Nachrichten- und Informationsaustausches weltweit erlebt.[1] Diese Entwicklung hat die Demokratien durch die Unterstützung der Informations- und Meinungsfreiheit gefördert. Es sind allerdings auch erhebliche Herausforderungen für die Demokratien damit einhergegangen. Zu nennen sind die Verbreitung rechtswidriger Inhalte, von Fehlinformationen oder Informationen, die möglicherweise ungenau, manipuliert oder ungeprüft sind. Durch die von den Internetplattformen genutzten Algorithmen wurde das virale Teilen von digitalen Nachrichten und Inhalte und damit die schnelle Verbreitung von Fehlinformationen und rechtswidriger Inhalte beschleunigt. Fehlinformationen und rechtswidrige Inhalte können negative Auswirkungen auf die Gesellschaft haben, indem sie beispielsweise den sozialen Zusammenhalt gefährden, politisch polarisieren und das Vertrauen in demokratische Institutionen beeinträchtigen.[2]
Die Verordnung (EU) 2022/2065 genannt „Gesetz über digitale Dienste“ (DSA) stellt den bis dahin weltweit ambitioniertesten Versuch dar, Rechtsverletzungen und Diskursgefährdungen unter den Bedingungen großer Plattformen entgegenzuwirken.[3] Ebenfalls im Jahr 2024 traten die Information Technology (Intermediary Guidelines and Digital Media Ethics Code) Rules, 2021 (IT-Rules) in Kraft, die im Rahmen des Information Technology Act, 2008 (IT-Act) in Indien erlassen wurden. Hierunter wird die Änderung des Information Technology Act, 2000 (IT-Act) in Indien gefasst. Die IT-Rules regeln spezifisch die Verantwortlichkeiten von Vermittlern (Intermediären) und digitalen Medienplattformen. Beide Regulierungen scheinen eine ähnliche Zielsetzung zu haben. Deshalb stellt sich die Frage inwiefern der DSA und der India IT Act 2008 mit den Ergänzungen der IT-Rules in Bezug auf sehr große Online-Plattformen, wie Facebook hinsichtlich ihrer Ziele, der Haftung der Plattformbetreiber, der Transparenz durch Berichtspflichten bezüglich der Datenmoderation und staatlicher Kontrollmöglichkeiten vergleichbar sind.
Aufgrund der differenzierten Bezeichnung der Anbieter im Internet wird im Folgenden eine Eingrenzung auf große Online-Plattformen, nach dem Geschäftsmodell von Facebook vorgenommen und in diesem Text als „Plattform“ bezeichnet.
Zunächst werden die politischen Ziele von DSA und dem indischen IT-Act mit den IT-Rules verglichen. Anschließend wird ein Vergleich dieser Regulierungen vorgenommen. Nachdem der Anwendungsbereich verglichen wurde, wird ein Einordnung großer Online-Plattformen in die Regulierungen vorgenommen. Anschließend werden die Regulierungen am Beispiel großer Online-Plattformen wie Facebook hinsichtlich der Haftungen der Plattformbetreiber, der Transparenz der Datenmoderation durch Berichtspflichten der Plattformbetreiber sowie der Möglichkeiten staatlicher Kontrollen verglichen. Nach einer Bewertung des Vergleichs wird abschließend ein Fazit mit Ausblick gezogen.
II. Vergleich politischer Ziele des DSA mit dem IT-Act und den IT-Rules (Indien)
Zu den Zielen des DSA vom 19.10.2022 gehört es große und weltweit agierende Soziale Netzwerke durch strenge Vorgaben bezüglich rechtswidriger Inhalte zu regulieren. Nutzer von digitalen Vermittlungsdiensten sollen vor Risiken durch die Verbreitung rechtswidriger Inhalte geschützt werden. Gleichzeitig soll der Schutz der in der Charta verankerten Grundrechte der Verbraucher im digitalen Umfeld sichergestellt werden.[4] So tragen Intermediärsdienste durch die Struktur der Kommunikationsmöglichkeiten über Plattformen maßgeblich zu einer Verrohung der öffentlichen Kommunikation bei.[5] Ziel ist es „ein sicheres, vorhersehbares und vertrauenswürdiges Online-Umfeld“ gem. Art 1 I DSA zu schaffen. Im Rahmen der Binnenmarktharmonisierung soll so ein unionsweit einheitliches digitales Gesetz geschaffen werden, indem die Regelungen über die Verantwortung und Sorgfaltspflichten der Intermediärsdienste vollharmonisiert werden.[6] Deshalb sollen die Nutzerrechte gestärkt und die Arbeits- und Funktionsweise digitaler Plattformen nachvollziehbarer werden.[7] Darüber hinaus sollen Unternehmen durch die Harmonisierung der Regelungen für die Erbringung von Vermittlungsdiensten Zugang zu neuen Märkten bekommen.[8] Die Vorteile eines harmonisierten europäischen Binnenmarktes sollen genutzt werden, um Innovationen, Wachstum und Wettbewerbsfähigkeit zu fördern.[9]
Auch der IT-Act mit den IT-Rules zielen auf den Schutz der Nutzerrrechte und die Regulierung rechtswidriger Inhalte ab. Die Ziele gehen weit über die des DSA hinaus. So liegt der Fokus von IT-Act und IT-Rules zunächst auf den nationalen Interessen Indiens. Das wichtigste Gesetz zur Internetkriminalität in Indien ist nach wie vor der IT-Act, der im Jahr 2000 verabschiedet wurde.[10] Es befasst sich speziell mit Cyberkriminalität und elektronischem Geschäftsverkehr. Das Ziel ist es, mit diesem Regelwerk einen Schutz vor Kriminalität im Internet zu schaffen. Andererseits wurde aber auch als weiteres Ziel, die Förderung des schnell wachsenden Wirtschaftszweigs von Daten und technologiegestützten Dienstleistungen verfolgt. Die IT-Industrie und der elektronische Handel in Indien sollte gefördert werden, indem elektronische Aufzeichnungen rechtlich abgesichert und Sicherheitspraktiken für elektronische durchgeführte Aktivität gefördert werden. Damit verbunden war seinerzeit schon die Förderung der digitalen Souveränität Indiens und die Idee einer geringen Abhängigkeit von ausländischen Technologieunternehmen.[11]
Das Gesetz wurde 2008 geändert, indem eine Reihe neuer Straftatbestände eingeführt wurde, die den Anwendungsbereich des Gesetzes erheblich über diese anfänglichen, meist wirtschaftlichen Belange hinaus, zu einer umfassenderen inhaltlichen Regulierung erweiterten. Es wurden zusätzlich rechtswidrige Inhalte und strafrechtlich verfolgbare Inhalte auf Online-Plattformen exemplarisch herausgestellt, wie das Versenden von beleidigenden Nachrichten (Abschnitt 66A), die Übertragung und Veröffentlichung von sexuell explizitem Material und Handlungen im Zusammenhang mit der Erstellung, Veröffentlichung und Verbreitung von Bildern des sexuellen Missbrauchs von Kindern (Abschnitt 67A) sowie das Veröffentlichen und Übermitteln von Bildern von einer Person ohne deren Zustimmung (Abschnitt 66E).[12] Indien war damit eines der ersten Länder mit einer gesetzlichen Bestimmung zur Bekämpfung der nicht einvernehmlichen Weitergabe sexueller Bilder.[13]
Der Schutz kritischer Informationsinfrastrukturen wurde ebenfalls als ein wichtiges Ziel herausgestellt. Gerade die Stärkung der nationalen Sicherheit durch bessere Kontrolle über Datenflüsse und Online-Inhalte steht dabei im Vordergrund. Dabei spielt auch das Aufrechterhalten der öffentlichen Ordnung eine wichtige Rolle.[14]
Die IT-Rules zielen darauf ab, die Rechenschaftspflichten von Plattformbetreibern zu erhöhen und sie zu verpflichten, die auf ihren Plattformen hochgeladenen Inhalte genau zu überwachen. Sie bieten einen rechtlichen Rahmen für die Moderation von Online-Inhalten und die Bekämpfung von Fehlinformationen, Fake News und Online-Belästigungen. Damit werden auch Haftungsfragen der Online-Plattformen differenziert.[15]
III. Vergleich von DSA mit IT-Act und IT-Rules hinsichtlich Haftung, Transparenz der Datenmoderation durch Berichtspflichten und staatlicher Kontrolle sehr großer Online-Plattformen, wie Facebook
1. Anwendungsbereich von DSA und IT-Act und IT-Rules mit Einordnung sehr großer Online-Plattformen wie Facebook
Für den Vergleich von DSA mit IT-Act und IT-Rules soll in den sachlichen, räumlichen und zeitlichen Anwendungsbereich unterschieden werden.
Der sachliche Anwendungsbereich des DSA bezieht sich auf Vermittlungsdienste, wenn die Dienste gegen Entgelt angeboten werden, was auch werbefinanziert erbrachte Dienste miteinschließt.[16] Er bezieht sich auf die vier Adressaten Vermittlungsdienste, Hosting-Dienstanbieter, Online-Plattformen und sehr große Online-Plattformen. Diese unterliegen einer gestuften Regulierung.[17] Je nach Reichweite und systemischer Bedeutung für den Meinungsbildungsprozess sollen sie in die Verantwortung genommen werden.[18] Vermittlungsdienste werden als Dienste der Informationsgesellschaft unterschieden in reines Durchleiten, die Caching-Leistungen und den Hostingdienst. Die Definitionen wurden aus Art. 12-14 E-Commerce-RL (ECRL), welche im deutschen Recht in §§ 7-10 Telemediengesetz (TMG) umgesetzt wurde, übernommen. Durch die Rechtsprechung des EuGH wurden Dienste konkret den Begriffen zugeordnet.[19] Sehr große Online-Plattformen sind gem. Art. 25 DSA Online-Plattformen mit mindestens durchschnittlich 45 Mio. aktiven Nutzern in der EU. Die Regulierung für sehr große Online-Plattformen ist am umfangreichsten.[20] Die EU-Kommission stufte u.a. Facebook als Hostingdienst mit Benennungsbeschluss am 25.04.2023 als sehr große Online-Plattform ein.[21]
Im räumlichen Anwendungsbereich des DSA wird mit Art. 2 I DSA das Marktortprinzip umgesetzt. Es umfasst damit Diensteanbieter, die unabhängig von deren Niederlassungsort ihre Dienste für Nutzer mit Niederlassungsort oder Sitz in der europäischen Union anbieten.[22]
Durch den zeitlichen Anwendungsbereich ist das DSA seit dem 17.02.2024 für alle bezeichneten Dienste anwendbar. Sehr große Online-Plattformen wurden von der EU-Kommission mit Benennungsbeschluss bereits am 25.04.2023 benannt, so dass die Verordnung bereits vier Monate nach der Benennung für diese 17 Online-Plattformen und zwei sehr großen Suchmaschinen galt.[23] Die Umsetzung und Befolgung des DSA in den Mitgliedstaaten der EU erfolgt gem. Art. 93 II DSA ab dem 17.02.2024.[24] Als EU-Verordnung nach Art. 288 UAbs. 2 AEUV ist der DSA nicht umzusetzen, sondern als unmittelbar geltender Rechtsakt durchzuführen.[25] Das Digitale-Dienst-Gesetz (DDG-E) soll die Übersetzung in die Praxis des Rechts und seiner Verfahren in Deutschland ermöglichen.[26] Dadurch werden weite Teile des NetzDG abgelöst.[27]
Der räumliche Anwendungsbereich des IT-Act, 2000 erstreckt sich auf das gesamte Land Indien und gilt, soweit in dem Gesetz nicht anders bestimmt, auch für alle Straftaten oder Zuwiderhandlungen, die außerhalb Indiens von einer Person begannen werden.[28] Dieses bezieht sich auch auf die auf die Änderung des Gesetzes von 2008.[29]
Es trat zu dem Zeitpunkt in Kraft, den die Zentralregierung durch eine Bekanntmachung festlegte, im Juni 2000. Die Änderung des Gesetzes wurde im Dezember 2008 veröffentlich.
Der sachliche Anwendungsbereich bezieht sich auf alle Transaktionen, die mittels elektronischem Datenaustausch und anderen elektronischen Kommunikationsmitteln durchgeführt werden. Darunter fallen auch Methoden der Speicherung von Informationen und die Anerkennung von elektronischen Transaktionen und Unterschriften. Durch die Änderungen in 2008 wurden Handlungen unter Verwendung eines Computers, Computernetzwerks, und Computersysteme oder jeglicher Kommunikationsgeräte hierzu ergänzt.[30]
Die IT-Rules wurden im Rahmen des IT-Acts 2008 erlassen und regeln spezifisch die Verantwortlichkeiten von Vermittlern (Intermediären) und digitalen Medienplattformen. Sie wurden 2021 veröffentlicht und traten am Tag ihrer Veröffentlichung in den „Official Gazette“, am 25.02.2024 in Kraft.
Eine große Online-Plattform, wie Facebook wird gemäß IT-Rules als bedeutende Social-Media-Plattform (SSMi) eingestuft, wenn sie mehr als mit mehr als fünf Millionen Nutzer haben.[31] Im Januar 2021 gab es in Indien über 410 Millionen Facebook-Nutzer. Es ist zu erwarten, dass sich die Anzahl der Nutzer in den nächsten Jahren weiter deutlich ausweiten wird.[32]
2. Vergleich der Haftung großer Online-Plattformen
Der DSA nutzt Haftungsprivilegierungen um das Verhalten der Online-Plattformbetreiber zu steuern.[33] Diese sind in Art. 4 – 10 DSA niedergelegt. Sie können als bedingte Haftungsausnahmen verstanden werden. Nach diesen Vorschriften können Anbieter von reinen Durchleitungs-, Caching- und Hosting-Diensten nicht für die Informationen haftbar gemacht werden, die sie für ihre Nutzer übermitteln oder speichern, sofern sie bestimmte Bedingungen erfüllen. Diese Bedingungen sind je nach Art des Dienstes unterschiedlich.[34] Nimmt die Online-Plattform eine neutrale Rolle ein, legen Art. 4 ff. fest, dass sie für rechtswidrige Inhalte nicht haften, die Nutzer bereitstellen. Damit bilden die Haftungsprivilegierungen die Grundlage eines angemessenen Interessenausgleichs zwischen den Kommunikationsinteressen der Nutzer, der effektiven Unterbindung der Verbreitung rechtswidriger Inhalte sowie den gewerblichen Interessen der Plattformbetreiber. Anknüpfungspunkte der Haftungsprivilegierungen des DSA bilden andere Rechtsakte des nationalen und unionalen Rechts. Eine Haftung der Online-Plattform bedeutet dementsprechend, dass eine Haftungsgrundlage außerhalb des DSA verwirklicht wurde z.B. des Art. 11 UGP-Richtlinie, Art. 3 InfoSoc-Richtlinie, Art. 17 DSM-Richtlinie oder Art. 130 Unionsmarkenverordnung.[35]
Dieser Ansatz wurde wegen der Rechtssicherheit, die diese Vorschriften bieten und ihrer Bedeutung für den Schutz der Grundrechte gewählt. So werden zwar einerseits die Haftungsrisiken für Plattformen begrenzt, andererseits stellt diese Regelung einen Anreiz für die Plattformen dar, keine Overblocking zu betreiben, indem Informationen bereits bei Zweifeln ihrer Rechtmäßigkeit schnell entfernt werden. Dieses würde das Recht auf freie Meinungsäußerung und die Informationsfreiheit beschränken, welches durch die Grundrechtecharta Artikel 11 garantiert wird. Dieses betrifft auch die unternehmerische Freiheit gemäß Artikel 16, da eine strukturelle Überwachung von übermittelten und gespeicherten Nutzerinformationen aus Sicht der Online-Plattform gemäß Art. 8 DSA nicht notwendig ist. Außerdem wird so sichergestellt, dass Personen, die durch rechtswidrige Inhalte geschädigt werden, Rechtsmittel gegen die Online-Plattformen einlegen können, um ihre Grundrechte zu schützen. Dieses betrifft beispielsweise die Durchsetzung der Entfernung von Inhalten. Es muss also selbst dann, wenn die Voraussetzungen nicht erfüllt sind und die Haftungsbefreiung daher nicht geltend gemacht werden kann, nach dem anwendbaren Recht gesondert geprüft werden, ob der Anbieter haftet oder nicht.[36]
Die Haftungsprivilegierung greift bei großen Online-Plattformen wie Facebook gemäß Art. 6 DSA. Erlangt die Online-Plattform Kenntnis von rechtswidrigen Inhalten, so ist dieser zügig zu entfernen. Eine Haftung wird nicht ausgeschlossen, wenn diese Inhalte nach Kenntniserlangung nicht zügig gesperrt oder entfernt werden. Interpretationsbedürftig ist das Neutralitätskriterium.[37] Zwar wurden Kriterien durch den EUGH zur Einstufung eines Vermittlers festgelegt.[38]Trotzdem wird es immer wieder Dienstleistungen der Plattformen geben, die nicht so eindeutig sind und die Rechtsprechung hier weiterhin relevant sein wird. Außerdem wurde in Art. 7 DSA das sogenannte „Gute-Samariter-Privileg“ aufgenommen. Die Haftungsprivilegien der Online-Plattform geht nicht verloren, wenn diese freiwillige Kontrollen auf der Grundlage von Eigeninitiative durchführen. Durch diese Regelung soll ein Anreiz für Online-Plattformen geschaffen werden, eine aktive Rolle bei der Suche und Sperrung rechtswidriger Nutzerinhalte einzunehmen. Die für einen Haftungsausschluss gemäß Art. 4 – 6 DSA relevanten Haftungsregeln aus europäischen und nationalen Rechtsordnungen reflektieren damit das in Art. 3 E-Commerce-Richtlinie niedergelegte Herkunftslandprinzip. Die Mitgliedstaaten haben dafür Sorge zu tragen, dass die Dienste, die von einem in ihrem Hoheitsgebiet niedergelassenen Diensteanbieter erbracht werden, den in diesem Mitgliedstaat geltenden innerstaatlichen Vorschriften entsprechen, die in den koordinierten Bereich fallen.[39] In Art. 8 DSA wird festgelegt, dass Plattformen keine allgemeine Verpflichtung zur Überwachung oder aktive Nachforschung haben.
Insgesamt kann es hier zu einer Grauzone in der Haftung der Onlineplattformen kommen. Es kann schwierig sein, eine klare Unterscheidung zwischen verbotenen „allgemeinen“ und erlaubten „spezifischen“ Überwachungsverpflichtungen zu treffen, die sicherlich die Gerichte beschäftigen kann.[40]
Unberührt von den Haftungsprivilegien des DSA sind gerichtliche und behördliche Anordnungen zur Entfernung und Sperrung rechtswidriger Inhalte (Art. 4 Abs. 3 DSA, Art. 5 Abs. 2 DSA, Art 6 Abs. 4 DSA). Auch für eine Haftung bezüglich urheberrechtlicher Fragestellungen gelten strengere Regeln. Auch Haftungen für die Entfernung und Sperrung terroristische Inhalte sind die Regelungen deutlich strenger gefasst gemäß Art. 2 Abs. 4 lit c DSA und Art. 3 Abs. 3 Terroristische Inhalte-Verordnung.[41]
Der DSA geht in der Haftung der Online-Plattformen damit einen anderen Weg als Indien. Durch die Schaffung sogenannter Sorgfaltspflichten im DSA werden regulatorische Erwartungen geschaffen, die zwar zunächst unabhängig von der der Frage der Haftung der Online-Plattformen zu sehen sind. Bei Verletzungen von Sorgfaltspflichten wird deshalb auch ein separates Durchsetzungssystem im DSA vorgesehen, über das in diesem Blogbeitrag ausführlicher in Kapitel III.3. berichtet wird. Ziel der Sorgfaltspflichten ist es, die Funktionsweise der Systeme und Verfahren der Plattformen insgesamt zu verbessern, um die Inhalte der Nutzer zu mäßigen oder andere allgemeine Risiken zu steuern. Der DAS legt damit seinen Schwerpunkt auf Rechenschaftspflicht und nicht so stark auf die Haftung. Rechenschaftspflichtige Online-Plattformen stellen den rechtmäßigen Zustand wieder her, indem sie einfach ihr Verhalten so anpassen, dass es den Erwartungen der Regulierungsbehörden entspricht. Wenn ein Anbieter eine systemische Sorgfaltspflicht verletzt, besteht bei solchen Systemen nur eine Verpflichtung gegenüber Einzelpersonen oder Aufsichtsbehörden, das Ergebnis zu korrigieren. Die Rechenschaftspflicht für systematische Verpflichtungen bedeutet, dass allen Betroffenen eine Art von Unterstützung geschuldet wird und nicht nur klagenden Opfern. Darüber hinaus verbietet der DAS überkompensatorische Entschädigungen für Verstöße gegen die Sorgfaltspflicht (Artikel 54).[42]
In dem indischen IT-Act wird ein gegenteiliger Ansatz verfolgt. Die Einhaltung der Sorgfaltspflichten dienen hier als Vorbedingung für eine Haftungsbefreiung der Plattform, Abschnitt 79 IT-Act. Bei einem solchen System werden die Haftungsbefreiungen zu einem wirklichen Privileg, das nur demjenigen gewährt wird, der den IT-Act mit den Ergänzungen z.B. durch die IT Rules in seiner Gesamtheit akzeptiert und einhält. Je mehr Sorgfaltspflichten der Liste hinzugefügt werden, desto unmöglicher wird aber diese Gradwanderung. Im Rahmen der Haftung werden die Online-Plattformen aufgrund mangelnder Sorgfalt damit quasi zu einem Komplizen des gesamten Unrechts anderer. Haftende Plattformen werden mit Unterlassungsklagen und Mithaftung für Schäden konfrontiert und von vielen Opfern, denen durch die Handlungen anderer Unrecht zugefügt wurde, zur Rechenschaft gezogen. Sie stellen den rechtmäßigen Zustand wieder her, indem sie die Opfer entschädigen. Wenn ein Anbieter eine systemische Sorgfaltspflicht verletzt, die in eine Haftungsfreistellung eingebettet ist, führt ein Versäumnis bei der Umsetzung einer bestimmten Richtlinie zu separaten rechtlichen Problemen gegenüber vielen, denen Unrecht widerfahren ist. Die Haftung für andere bedeutet, dass die Plattform gegenüber den Geschädigten für die Handlungen vieler anderer Personen voll haften muss.[43]
Mit der Novellierung des IT-Gesetzes im Jahr 2008 wurden erstmals detailliertere Haftungsfragen für im digitalen Bereich stattfindender Aktivitäten entwickelt. Es wurden neue Leitlinien für die Inanspruchnahme des Safe Harbour in Abschnitt 79 des IT-Gesetzes entwickelt. Plattformbetreiber genießen Schutz, solange dieser die Vermittlung nicht veranlasst, den Empfänger der Vermittlung nicht auswählt und die in der Übermittlung enthaltenen Informationen nicht auswählt oder verändert. Außerdem muss er bei der Erfüllung seiner Pflichten, die „gebührende Sorgfalt“ walten lassen. Dieses umfasst insbesondere eine „tatsächliche Kenntnis“ als auslösendes Ereignis für einen Vermittler und die Verpflichtung des Vermittlers aufgrund einer Mitteilung tätig zu werden. Durch Einhaltung dieser Vorgaben waren die Plattformbetreiber von jeglicher Haftung für nutzergenerierte Inhalte oder Kommunikation auf den Plattformen befreit. Es wurde zunehmend befürchtet, dass Plattformbetreiber diese Safe-Harbour-Bestimmungen nutzten, um sich der Verantwortung für vorsätzliche Verstöße zu entziehen. In Ermangelung einer klaren Definition der Sorgfaltspflicht sollen sowohl die Rechtsprechung als auch die IT-Rules von 2021 dazu beitragen, einen harmonischen Überwachungsmechanismus für soziale Medienplattformen zu schaffen, um den Plattformen hinsichtlich der Nutzung der Möglichkeit des Safe Harbour Sicherheit zu geben.[44] Für Plattformen, die einen Safe Harbour beanspruchen wollen, sind die neuen reformierten Maßnahmen viel umfangreicher. Die Aufzeichnungen der Online-Plattformen werden detaillierter geprüft. Es wird eine definierte Struktur für die Plattformen vorgegeben, an die sie sich halten müssen. Straftatbestände und Strafmaße sind im IT-Act niedergelegt. Ein Überwachungsmechanismus soll sicherstellen, dass die Entscheidungen der Online-Plattformen ihre Haftungen ausschließen können.[45]
Die Regelungen für den Safe-Harbour gelten gemäß Abschnitt 79 IT-Act nur für Vermittler. Dieser Status kann verloren gehen, wenn die in den IT-Rules festgelegten Bedingungen nicht erfüllt werden. Neben der Haftungsbefreiung gemäß Abschnitt 79 IT-Act gibt es allerdings die Möglichkeit, dass eine Person bezüglich der veröffentlichten rechtswidrigen Inhalte die Online-Plattform verklagt. Da es häufig schwierig ist, primäre Straftäter zu verfolgen oder haftbar zu machen, werden Plattformbetreiber versucht in die Haftung zu nehmen. Dieses wird auch „Gatekeeper“-Haftung genannt. Als Gatekeeper werden private Parteien bezeichnet, die rechtswidrige Handlungen unterbinden können, indem sie „Übeltäter“ zurückhalten. In diesem Fall wird eine Klage wegen Sekundärhaftung gegen den Plattformbetreiber eingereicht. Damit wird gerichtlich geklärt, ob der Plattformbetreiber als Vermittler eingestuft wird und deshalb durch seinen Anspruch auf die Safe Harbour Regel von der Haftung befreit wird. Das bedeutet, dass der Safe-Harbour für jede geleistete Dienstleistung des Plattformbetreibers zu bewerten ist. Entscheidend ist also die Beziehung oder Funktion, die ein Plattformbetreiber in Bezug auf den Inhalt, für den sie verklagt wird hat oder ausübt. Damit ist die Haftung des Plattformbetreibers auf den jeweiligen Gegenstand der Klage beschränkt. Der Plattformbetreiber haftet damit nicht für sämtliche rechtswidrigen Inhalte auf der Plattform. Die Verfahren sind häufig langwierig und mit hohen Prozesskosten verbunden. Der Status „Vermittler“ wird also nicht durch die Regierung verliehen bzw. durch diese entzogen. Das Gerichtsurteil führt auch nicht zu einer grundsätzlichen Einstufung der Plattform als Vermittler, sondern bezieht sich in der Haftung nur auf den individuellen Fall. Werden Plattformen häufig sekundär haftbar gemacht, kann das Plattformbetreiber veranlassen das Recht auf freie Meinungsäußerung einzuschränken, indem sie auch rechtmäßige Inhalte mit geringem Haftungsrisiko löschen, um eventuelle Haftungen zu vermeiden. Deshalb wird den Plattformbetreibern ein gewisses Maß an Immunität gewährt, womit Safe Harbour-Regelungen zu den wichtigsten Schutzregelungen für die freie Meinungsäußerungen im Internet zählen. Das indische Regulierungsinstrument zielt darauf ab, ein Gleichgewicht zu finden zwischen Anreizen für Plattformbetreiber, rechtswidrige Inhalte durch die Androhung der Sekundärhaftung zu minimieren während sie gleichzeitig einen ausreichenden Schutz vor der Haftung durch Safe Harbour bieten, damit Inhalte der Nutzer nicht übermäßig zensiert werden, um Haftung zu vermeiden.[46]
Damit kann man eine Entwicklung in der indischen Regulierung beobachten, die darauf abzielt, die Haftung der Plattformbetreiber als Mechanismus zur Bekämpfung von Fehlinformationen zu nutzen.[47] Allerdings gibt es derzeit das Problem, dass durch das Versäumnis Abschnitt 2(1)(w) IT-Rules und Abschnitt 79 IT-Act im Einklang mit den darin enthaltenen Grundsätzen der Sekundärhaftung konsequent auszulegen, indische Gerichte zu dem verwirrenden rechtlichen Diskurs über den Safe-Harbour beigetragen haben. Es fehlen derzeit eindeutige Kriterien der Auslegung, so dass eine Unsicherheit der Plattformbetreiber hinsichtlich ihrer Haftung gegeben ist.[48]
Es wird versucht ein Gleichgewicht zwischen dem Schutz der Vermittler vor übermäßiger Haftung und der Verpflichtung, die notwendigen Schritte zu unternehmen, um gegen illegale und schädliche Inhalte vorzugehen, zu erreichen.[49]Grundlegend wird diese Idee auch mit dem DSA verfolgt, obwohl hier, wie beschrieben, ein anderer Weg gewählt wurde.
3. Vergleich der Transparenz der Datenmoderation sehr großer Online-Plattformen durch Berichtspflichten
a) Berichtspflichten zur Löschung und Sperrung sowie Beschwerdeverfahren
Mit Art. 16 DSA wurde ein Melde– und Abhilfeverfahren für „rechtswidrige Inhalte“ geschaffen, als Grundlage für Löschungen von Beiträgen auf Plattformen.[50] So soll dadurch das Quantitätsproblem der Regulierung der Online-Inhalte gelöst werden, indem Plattformen verpflichtet werden, wirksame Verfahren zur Meldung und Löschung strafrechtlich relevanter Inhalte einzusetzen. Dadurch wird die mittelbare Haftung der Plattformen konkretisiert und die Staatsanwaltschaft entlastet.[51]
Plattformen versuchen teilweise oder vollständig Operationen der Datenmoderation zu automatisieren. Dabei kommen sowohl Algorithmen als auch Methoden des maschinellen Lernens der künstlichen Intelligenz (KI) zum Einsatz. Während Algorithmen feste und endlich computerisierte Handlungsvorschriften zur Lösung eines Problems bezeichnen, werden bei KI Lernregeln und eine Datenbasis vorgegeben, aus der das System Lösungen aufgrund von Mustererkennung generiert. Nutzt man diese Systeme zur Löschung von Beiträgen, können diese entweder automatisch gelöscht oder vorab überprüft werden. Facebook gab an Ende 2020 knapp 95% der als Hate Speech eingestuften Beiträge mit Hilfe von KI identifiziert zu haben, um sie dann zu löschen.[52]
In Art. 15 DSA sind jährliche Transparenzberichtspflichten über Lösch- und Sperrverhalten für Plattformen festgelegt. Diese umfassen vor allem Informationen über das Melde- und Abhilfeverfahren des Art. 16 DSA sowie über Reaktionen im Beschwerdemanagementverfahren gem. Art. 20 DSA. Ebenfalls ist über Maßnahmen der Löschung und Sperrung zu informieren, die auf Grundlage der AGB der Plattform ohne eine Meldung von Nutzern erfolgte.[53] Gem. Art. 17 DSA ist der Nutzer detailliert über die Entscheidung und den Entscheidungsweg zu informieren, was auch die eingesetzten automatisierten oder KI-gestützten Verfahren betrifft.[54] Darüber hinaus sieht der DSA die Pflicht zur priorisierten Bearbeitung von Meldungen sog. „Vertrauenswürdigen Hinweisgebern“ gem. Art. 22 DSA vor. Hierüber ist gem. Art. 15 I b) DSA zu berichten. Es gibt im DSA keine konkreten Fristen zur Bearbeitung der Meldungen und Entfernung von Inhalten.[55] Die Transparenzberichtspflichten sind in Abhängigkeit der Größe einer Plattform gestaltet. In diesem Blogbeitrag werden deshalb nicht nur die Transparenzpflichten des Art. 15 DSA, sondern die Ausweitung der Pflichten durch Art. 24 DSA und Art. 42 DSA betrachtet. Deshalb sind die Berichtspflichten nach Art. 15 DSA halbjährlich zu erfüllen.[56]
Die indischen IT-Rules regeln, dass eine Plattform seine Nutzer regelmäßig, mindestens einmal jährlich, darüber informieren, dass bei Nichteinhaltung der Regeln und Vorschriften, der Nutzungsbedingungen, der Datenschutzrichtlinie das Recht hat, den Zugang oder die Nutzungsrechte des Nutzers sofort zu beenden bzw. nicht konforme Informationen zu entfernen.[57]
Die Plattform ist gemäß II. 4(8) IT-Rules verpflichtet vor der Entfernung oder Deaktivierung des Accounts dem betroffenen Nutzer darüber zu benachrichtigen und diesem die Gründe mitzuteilen. Der Nutzer hat dann eine angemessene und faire Gelegenheit zu erhalten, die Maßnahme anzufechten und eine Wiederherstellung des Zugangs zu den Informationen zu beantragen.
Plattformen sind verpflichtet in ihren Nutzungsbedingungen Nutzern das Hochladen und Teilen verschiedener Kategorien rechtwidriger Inhalte zu verbieten. Außerdem ist es ihre Aufgabe, Nutzer zu veranlassen, solche Inhalte nicht hochzuladen oder zu teilen und die Einhaltung der AGB der Plattform sicherzustellen, §79 (3) IT-Act, Regeln 3(1)(a) – 3 (1)(b), IT-Rules. Die wörtliche Auslegung dieser Verpflichtung könnte dazu führen, dass Plattformbetreiber Nutzer daran hindern, solche Inhalte überhaupt hochzuladen. Dieses könnte dann die Meinungsfreiheit einschränken. Ob das Verhalten der Plattform über Berichtspflichten transparent gemacht werden kann, ist derzeit nicht erkennbar.[58]
In Art. 20 DSA wird ein internes Beschwerdemanagementsystem beschrieben. Der DSA beschäftigt sich mit Entscheidungen von Anbietern bezogen auf einzelne Inhalte und Sperrungen ganzer Accounts. Das Beschwerderecht gilt im DSA auch für weitere Maßnahmen, wie beispielsweise Einschränkungen der Reichweite.[59] Über die Anzahl der Gegenvorstellungen sowie dem Umgang mit diesen ist gem. Art. 15 DSA zu berichten. Eine Möglichkeit der Nutzung einer außergerichtlichen Streitentscheidung ist in Art. 21 DSA enthalten. Auch hierüber ist ein Transparenzbericht gem. Art. 42 IV a), b) DSA i.V.m. Art. 15 I d) DSA zu erstellen.
Auch in den indischen IT-Rules wird die Einrichtung eines Beschwerdeverfahren mit Ernennung eines Beschwerdebeauftragten und eines Beschwerdeausschusses unter Beteiligung von der Zentralregierung ernannter Personen den Plattformen vorgeschrieben, II (2) IT-Rules. Die Beschwerde ist innerhalb von 24 Stunden zu bestätigen und innerhalb von 15 Tagen nach Eingang zu lösen. Die Beschwerde kann auch als Anordnung oder Anweisung von der Regierung, einer Behörde oder einem Gericht kommen. Sie ist sie auch innerhalb von 24 Stunden zu bestätigen und schnellst möglich umzusetzen. Der Nutzer kann gegen die Entscheidung des Beschwerdeausschusses innerhalb von 30 Tagen nach Erhalt der Mitteilung beim Beschwerdeausschuss Berufung einlegen.[60] Jedes Verfahren mit seiner Entscheidung ist auf der Website der Online-Plattform zu veröffentlichen.[61]
Außerdem werden bedeutende Social-Media-Plattformen (SSMIs) verpflichtet, Compliance-Berichte zu veröffentlichen, in denen die Anzahl der eingegangenen Beschwerden und die daraufhin entfernten Inhalte dokumentiert werden. Diese Verpflichtung kann aber bisher nur schwierig durchgesetzt werden. Wird ein SSMI nicht wegen rechtswidriger Inhalte verklagt, kann dieser sich dafür entscheiden, keine Transparenzberichte zu veröffentlichen. Der SSMI hätte keine rechtlichen Konsequenzen zu befürchten. Gerichte wären bei einer Klage auch nicht in der Lage, diese Verpflichtungen bei Klagen wegen rechtswidriger Inhalte zu beurteilen. Regel 4 Absatz 8 der Leitlinie schreibt vor, dass die SSMIs die Nutzer vor der Entfernung von Inhalten benachrichtigen und ihnen eine „angemessene und zumutbare Gelegenheit bieten“ müssen, die von der SSMI vorgenommene Entfernung anzufechten und die Wiederherstellung zu beantragen. Eine Überprüfung der Berichterstattung hierüber ist schwierig.[62]
Es ist eine ständige Abstimmung mit den Strafverfolgungsbehörden sicherzustellen und falls erforderlich, Gründe für die Beseitigung von Beschwerden und das befolgte Verfahren zu liefern. Außerdem werden die Plattformen verpflichtet, den ersten Urheber der Information zu identifizieren. Dieses bedeutet, dass die Plattformen die Ende-zu-Ende-Verschlüsselungen aufheben müssen, die bisher eine der wichtigsten Grundlagen ihres Dienstes und eine Garantie im Rahmen des Dienstleistungsvertrags für den Nutzer war.[63] Diese Regelung wird deshalb kritisch gesehen, da sie einen Eingriff in die Meinungsfreiheit darstellt und die Gerichte damit konfrontiert werden. Ob und inwieweit diese Regelung genutzt wird, kann derzeit nicht ermittelt werden.[64]
Im DSA gibt es eine Meldepflicht der Online-Plattform. Sobald eine Online-Plattform Kenntnis über Informationen erlangt, die einen Verdacht begründen, dass eine schwere Straftat, die eine unmittelbare Bedrohung für das Leben oder die Sicherheit von Personen darstellt, begangen wurde, begangen wird oder begangen werden soll, ist diese unverzüglich nach Art. 18 DSA den Strafverfolgungsbehörden zu melden. Hier wird auch ausgeführt welche Behörden kontaktiert werden können. Der DSA knüpft damit primär an den Ort einer möglichen Straftat an und verfolgt so eher einen präventiven Gedanken. Die Verfolgung von Straftaten hinsichtlich der Verrohung der Kommunikation auf einer Online-Plattform steht hier also nicht im Vordergrund.[65]
Ein zusätzliches Instrument stellt mit Art. 9 und Art. 10 DSA die behördliche Anordnung dar. Hiermit sollen Online-Plattformen zum Vorgehen gegen bestimmte rechtswidrige Inhalte durch nationale Justiz- und Verwaltungsbehörden gezwungen werden können. Auch hierüber haben die Online-Plattformen nach Inhalt und Umfang gem. Art. 15 I a) DSA zu berichten.[66]
Gemäß der IT-Rules muss die Plattform so schnell wie möglich, spätestens jedoch 72 Stunden nach Erhalt einer Anordnung, Informationen unter seiner Kontrolle oder seinem Besitz bereitstellen oder Unterstützung leisten, um eine von der Regierung befugte Stelle, bei der Verifizierung der Identität oder zur Verhinderung, Erkennung, Untersuchung oder Strafverfolgung von Straftaten nach geltendem Recht oder bei Cybersicherheitsvorfällen zu unterstützen.[67]
Der Plattformbetreiber muss Cybersicherheitsvorfälle melden und relevante Informationen dem Indian Computer Emergency Response Team zur Verfügung stellen, gemäß II 3 (1)(l) IT-Rules.
Plattformen haben eine Kontaktperson zu benennen, die rund um die Uhr die Koordination mit Strafverfolgungsbehörden und zur Sicherstellung der Einhaltung von Anordnungen der Behörden zuständig ist, II 4(1)(b) IT-Rules. Außerdem kann das Ministerium gemäß II.4(9) IT-Rules nach eigenem Ermessen zusätzliche Informationen anfordern, die es für erforderlich hält.
Der DSA verfügt damit über detaillierte und umfangreiche Regelungen über Berichtspflichten für Plattformen im Vergleich zu den betrachteten indischen Regulierungen. Ob diese Berichtspflichten von den Online-Plattformen entsprechend umgesetzt werden, bleibt abzuwarten. In den IT-Rules sind im Vergleich mit dem DSA umfangreichere direkte Informationspflichten der Online-Plattformen bei Anforderungen der Regierung, Behörden oder Gerichten niedergelegt. Mit dem IT-Act wurde eine Grundlage geschaffen, mit denen diese Eingriffsmöglichkeiten durchaus umsetzbar erscheinen.
b) Berichtspflichten zur regulierten Selbstregulierung der Online-Plattformen und staatliche Kontrollmöglichkeiten
Der DSA versucht die Selbstverpflichtung der Plattformen aufzunehmen und mit Art. 33 ff. zu fördern.[68] Dabei geht man davon aus, dass Lösungen zur Minderung systemischer Risiken am besten von den Diensteanbietern selbst entwickelt werden, da diese über die beste Sachkenntnis verfügen. Nachranging soll eine Kontrolle und ein Eingreifen der Behörden erfolgen.[69]
So werden die Plattformen verpflichtet einmal jährlich, systemische Risiken zu ermitteln, wie beispielsweise eine verstärkte Verbreitung von Desinformationen durch die Verwendung bestimmter Algorithmen.[70] Diese Risiken sind dann u.a. hinsichtlich ihrer Auswirkungen auf die Verbreitung rechtswidriger Inhalte, die Ausübung der Grundrechte, die gesellschaftliche Debatte, die öffentliche Sicherheit und den Schutz der Minderjährigen zu bewerten.[71] Die Plattformen sollen dann gem. Art. 35 DSA Maßnahmen zur Begrenzung der Risiken ergreifen, beispielsweise durch Anpassung des Designs der Algorithmen, der Content Moderation oder Änderung der AGB. Allerdings fehlen klare Maßgaben und Verfahren, wonach die Plattformen die Realisierung der einzelnen beschriebenen Risiken einheitlich zu bestimmen haben. Dieses liegt im Ermessenspielraum der Plattformen.[72] Eine unabhängige jährliche Prüfung der Plattform gem. Art. 37 DSA bezüglich der Einhaltung der Vorgaben dieser Verordnung ergänzt dieses hybride Regulierungskonzept. Dieser Bericht ist der Kommission gem. Art. 42 IV DSA zu übermitteln.[73] Außerdem müssen die Plattformen, gem. Art. 40 DSA Zugang zu bestimmten, für das Monitoring erforderlichen, Daten für Behörden und Forschern ermöglichen. Gem. Art. 41 DSA müssen sie einen spezifischen Compliance-Officer betrauen und gem. Art. 45 ff. DSA diverse Verhaltenskodizes entwickeln. Schließlich müssen sie im Krisenfall gem. Art. 48 DSA mit der EU-Kommission zusammenarbeiten.[74]
Ohne das Wissen der Plattformen kann nicht abgeschätzt werden, inwieweit gesellschaftliche Gefahren durch diese Diensteanbieter bestehen. Es existiert damit ein Wissensgefälle zwischen Regulierten und Regulierenden.[75] Das DSA setzt seinen Schwerpunkt darauf, dass Berichtspflichten der Online-Plattformen helfen können, das Wissensgefälle zu verringern. Gerade die Berichtspflichten zur Umsetzung der regulierten Selbstregulierung setzen Rahmenbedingungen für die Plattformen, unter denen die Plattformen selbständig agieren können. Gleichzeitig wird die Verantwortung der Plattformen hervorgehoben, da sie zu mehr Transparenz verpflichtet werden und sie einer Aufsicht unterworfen werden.
Die Verpflichtung von Plattformen sich mit systemischen Risiken auseinanderzusetzen, diese zu bewerten und Abhilfe zu schaffen, die unabhängige jährliche Prüfung der Einhaltung der Vorgaben des DSA, der Zugang zu Daten für ein Monitoring durch Behörden und Forschung sowie die Schaffung und Beaufsichtigung von Compliance[76] können geeignet sein, das Wissensgefälle zwischen Regulierten und Regulierenden zu reduzieren. Durch diese erhöhte Transparenz könnten fundiertere Erkenntnisse bezüglich des Verhaltens von Plattform im Spannungsfeld von Meinungsfreiheit und rechtswidrigen Inhalten gewonnen werden.
Es fehlen allerdings klare Vorgaben im DSA zur Umsetzung der beschriebenen zusätzlichen Verpflichtungen im Rahmen der regulierten Selbstregulierung, so dass das Vorgehen und die Umsetzung im Ermessensspielraum der Plattform liegen. Die Gefahr besteht, dass die Aufsicht daher nur auf niedrigem Niveau stattfinden wird.[77]
Hinzu kommen einige unklare Rechtsbegriffe in der Verordnung.[78]Außerdem ist davon auszugehen, dass die Plattformen die stärkere Verpflichtung zur Transparenz und die damit verbundene Aufsicht nicht einfach hinnehmen werden. Wie beschrieben gibt es ein Wissensgefälle zwischen Regulierten und Regulierern, so dass die Gefahr besteht, dass die Plattformen dieses zu ihren Gunsten nutzen werden.
Somit werden hinsichtlich der Durchsetzung des DSA sicherlich auch Gerichte beschäftigt werden, beispielsweise der EuGH mit dem Themenfeld der DSA-Sperranordnungen gem. Art. 9 DSA.[79]
Die betrachteten indischen Regulierungen stellen für Plattformen eine Selbstregulierung mit einer Berichterstattung und nachgelagerten Kontrolle nicht in den Vordergrund. Zwar ist auch gemäß der IT-Rules ist von Plattformen ein Chief Compliance Officer zu ernennen, der für die Einhaltung des Gesetzes und der dazu erlassenen Vorschriften verantwortlich ist, wozu gerade auch die bereits beschriebenen Compliance-Berichte zählen.[80] Dieser ist auch haftbar, wenn er es versäumt sicherzustellen, dass die Plattform die Sorgfaltspflichten bei der Erfüllung ihrer Aufgaben bezüglich der Gesetze und Vorschriften nicht beachtet.[81]
Artikel 19 der indischen Verfassung erlaubt der Regierung die Redefreiheit zu begrenzen, wenn es um die öffentliche Ordnung und Sicherheit Indiens geht. Darunter fällt ausdrücklich nicht die Einschränkung der Meinungsfreiheit aufgrund von falschen Äußerungen.[82] Die Rechtsprechung des Obersten Gerichtshofs Indiens zeigt, dass die „geordnete Sicherheit“ ein verfassungsmäßiger Wert ist. Sollten Meinungsfreiheit und öffentliche Ordnung miteinander kollidieren, würde der öffentlichen Ordnung ein höheres Gewicht zukommen.[83]
Die weitreichenden Überwachungsbestimmungen, die 2008 in das IT-Act aufgenommen wurden, dienen dementsprechend auch dem Zweck der öffentlichen Ordnung. Abschnitt 69 erlaubt es der Regierung, jegliche Informationen abzufangen, zu überwachen und zu entschlüsseln. Abschnitt 69A erlaubt der Regierung, Informationen über beliebige Computerressourcen für den öffentlichen Zugang zu sperren. Allerdings ist auch Strafverfolgungsbehörden zur Untersuchung von Straftaten gemäß Abschnitt 69 erlaubt, Daten zu überwachen, abzufangen und zu entschlüsseln. Abschnitt 69B ermöglicht die Überwachung und Sammlung von Verkehrsdaten zur Verbesserung der Cybersicherheit, um Computerschädlinge zu identifizieren, zu analysieren und zu verhindern, dass diese in das Land eindringen oder sich dort ausbreiten. Wenn darüber hinaus Zugang zu den auf den Servern der Unternehmen gespeicherten Daten notwendig ist, hat die Polizei weiterhin Zugang auf die Daten, ohne dass die vorherige Genehmigung eines Regierungsbeamten erforderlich ist.[84]
Außerdem wurde eine Reihe von Systemen eingerichtet, die den Zugang zu den so gesammelten Daten automatisieren (z. B. das so genannte „CMS“ oder „Central Monitoring System“), um die Echtzeit-Erkennung von Schlüsselwörtern und Phrasen, die im gesamten indischen Internet als verdächtig gelten, zu erkennen sowie von sozialen Medien bis zu Sprachkanälen (z. B. NETRA oder Network Traffic Analysis) und zur Zusammenstellung und Analyse von Daten in eigenständigen Datenbanken (z. B. NATGRID oder National Itelligence Grid). Zusätzlich wird eine große Anzahl von Systemen zur Durchführung von Stimmungsanalysen und Analysen sozialer Netzwerke in der indischen Social-Media-Landschaft eingesetzt.[85]
Das IT-Gesetz ermächtigt also die Regierung Inhalte im Internet zu sperren. In diesem Mechanismus der Sperrung wird ein Bewältigungsmechanismus von Fehlinformationen gesehen. Die steigende Zahl der „Internet Shutdowns“, also der Abschaltung des Internets in Indien kann als Umsetzung dieses Verständnisses gewertet werden. Im Jahr 2012 wurden 3 Internetabschaltungen gezählt. Im Jahr 2018 waren es bereits 134 Abschaltungen.[86]
Für Internet Shutdowns in Indien gibt es verschiedene rechtliche Normen, die als Grundlage für das Blocking von Websites angegeben werden. Den IT-Act betreffend werden vor allem die Abschnitte 67, 69A und 79 (3)(b) IT-Act genannt. Das Oxford Internet Institute hat Indien als eines der zehn wichtigsten Länder für die organisierte Manipulation sozialer Medien identifiziert. Derzeit scheint es sowohl an klaren Kriterien für eine Abschaltung als auch an einem klaren Prozess, wie die Entscheidung getroffen wird, zu fehlen. Es gibt in der jeweiligen Begründung eine große Mehrdeutigkeit in der Interpretation und Anwendung der Gesetze und Verordnungen. Die Online-Plattformen schaffen es derzeit aus Sicht der indischen Regierung nicht, die Daten entsprechend des Kriteriums der rechtmäßigen Inhalte zu regulieren, so dass Abschaltungen als Lösungsweg gesucht werden.[87]
Am 29. Juni 2020 verbot die indische Regierung TikTok zusammen mit 58 anderen chinesischen Apps. TikTok war seit 2017 in Indien und hatte 2020 bereits über 200 Millionen Nutzer. Indien war ihr größter Markt. Als Grund wird der schwelende Konflikt zwischen Indien und China, der an der Grenze zu Gewalt geführt hatte, vermutet. Indien war bereits geübt darin, im Namen der Aufrechterhaltung der öffentlichen Ordnung unliebsame Websites zu sperren und sogar Mobilfunkdaten in ganzen Regionen abzuschalten. Als Begründung wurden die Sicherheit und Souveränität des indischen Cyberspace genannt. In der chinesischen Verbrauchertechnologie wird wahrscheinlich ein Risiko für die Souveränität Indiens gesehen. Die Liste chinesischer Apps, die Indien verboten hat, ist auf über 500 angestiegen.[88]
Von den Plattformbetreibern werden die Shutdowns stillschweigend geduldet, um allen Anweisungen der Regierung Folge zu leisten. Auch die Nutzer dulden dieses weitgehend.[89]
Die betrachteten indischen Regulierungen setzen auf einen stärkeren Zugriff und direkten Zugang auf die Inhalte der Nutzer von Plattformen. Damit wird versucht, die Informationsasymmetrie zwischen Regulieren und Regulierten abzumildern. Dieses scheint aber derzeit nicht dazu zu führen, dass die Plattformen so reguliert werden, dass es von vornherein zu einer geringeren Veröffentlichung rechtswidriger Inhalte kommt. Aus diesem Grunde scheint dann der Internet Shutdown als Lösungsansatz, der im DSA nicht thematisiert wird.
IV. Bewertung
Sowohl in Indien als auch in Europa gibt es das Ziel große und weltweit agierende Soziale Netzwerke durch strenge Vorgaben bezüglich rechtswidriger Inhalte zu regulieren. Dieses betrifft auch das Spannungsfeld zwischen Meinungsfreiheit und der Verletzung von Persönlichkeits- und Menschrechte. Darüber hinaus sollen Innovationen, Wachstum und Wettbewerbsfähigkeit in den jeweiligen Regionen unterstützt werden. Im Jahr 2024 traten mit dem DSA für Europa und den IT-Rules für Indien jeweils Rechtsvorschriften in Kraft, mit denen dieses Ziel verfolgt werden soll. Allerdings wurden die IT-Rules im Rahmen des IT-Act, 2008 in Indien erlassen, dessen Ziele viel umfangreicher sind als die im DSA für Europa. So sind die Förderung der digitalen Souveränität Indiens und die Idee einer geringen Abhängigkeit von ausländischen Technologieunternehmen ebenso Ziele wie der Schutz kritischer Informationsinfrastrukturen zur Stärkung der nationalen Sicherheit.
Um die Ziele zu erreichen gehen beide Regionen unterschiedliche Wege in der Frage der Haftung bezüglich rechtswidriger Inhalte durch Nutzer auf großen Plattformen. Im DSA wird der Schwerpunkt in den, den Plattformen auferlegten, Sorgfaltspflichten gesehen. Diese sollen zu einer detaillierten Rechenschaftspflicht der Plattformen führen, mit dem Ziel, die Informationsasymmetrie zwischen Regulieren und Regulierten zu reduzieren. So sollen gesellschaftliche Risiken durch Nutzerinhalte rechtzeitig erkannt und die technischen Systeme und Prozesse kontinuierlich verbessert werden, um diese Risiken zu begrenzen. Haftungsfragen werden eher nachrangig geregelt. Die Frage der inhaltlichen Ausgestaltung zur Beurteilung rechtswidriger Inhalte sowie das Strafmaß für das jeweilige Vergehen wird durch die Anknüpfungspunkte an andere Rechtsakte des nationalen und unionalen Rechts delegiert.
Die indische Regulierung hingegen scheint in der Haftbarmachung der Plattformbetreiber einen Mechanismus zur Bekämpfung von Fehlinformationen zu sehen. Die den Plattformen auferlegten Sorgfaltspflichten haben hier den Charakter einer Vorbedingung der Haftungsfreiheit der Plattformbetreiber. Durch die im Zeitablauf detailliertere Ausgestaltung dieser Pflichten mit gleichzeitigen Regeln bezüglich der bei deren Verletzung drohenden Straftatbestände und Strafmaße sollen die Plattformbetreiber zu einem angemessenen Verhalten in der Regulierung der Daten bringen.
Dieser unterschiedliche Weg zeigt sich auch in den Möglichkeiten durch eine Berichtspflicht der Plattform zu einer Transparenz ihrer Handlungen zu kommen. Im DSA besteht eine Berichtspflicht über die Datenmoderation im Rahmen des von der Plattform einzurichtenden Melde– und Abhilfeverfahren und Beschwerdemanagementverfahren sowie über Maßnahmen der Löschung und Sperrung, die auf Grundlage der AGB der Plattform ohne eine Meldung von Nutzern erfolgte und eingesetzten automatisierten oder KI-gestützten Verfahren. Die IT-Rules regeln, dass jedes durchgeführte Beschwerdeverfahren mit seiner Entscheidung und Ergebnissen auf der Website der Plattform zu veröffentlichen ist. Außerdem sind Compliance-Berichte zu veröffentlichen, in denen die Anzahl der eingegangenen Beschwerden und die daraufhin entfernten Inhalte dokumentiert werden.
Mit dem DSA werden die Plattformen verpflichtet einmal jährlich, systemische Risiken zu ermitteln, die dann u.a. hinsichtlich ihrer Auswirkungen auf die Verbreitung rechtswidriger Inhalte, die Ausübung der Grundrechte, die gesellschaftliche Debatte, die öffentliche Sicherheit und den Schutz der Minderjährigen zu bewerten sind. Die Plattformen sollen dann Maßnahmen zur Begrenzung der Risiken ergreifen. Eine unabhängige jährliche Prüfung der Plattform bezüglich der Einhaltung der Vorgaben dieser Verordnung ergänzt dieses hybride Regulierungskonzept. Außerdem ist Behören und Forschern ein gewisser Zugang zu bestimmten, für das Monitoring erforderlichen, Daten zu ermöglichen. Im Krisenfall müssen die Plattformen mit der EU-Kommission zusammenarbeiten.
In dem IT-Act und den IT-Rules ist festgelegt, dass eine ständige Abstimmung mit den Strafverfolgungsbehörden durch die Plattformen sicherzustellen ist und falls erforderlich, Gründe für die Beseitigung von Beschwerden und das befolgte Verfahren zu liefern sind. Außerdem sollen die Plattformen sogar verpflichtet werden, den ersten Urheber der Information zu identifizieren, was bedeutet, dass die Plattformen die Ende-zu-Ende-Verschlüsselungen aufheben müssten. Eine Berichtspflicht hierüber gibt es nicht.
Dieses Vorgehen ist im DSA deutlich eingeschränkter. So bezieht sich die unverzügliche Meldepflicht der Plattform nur auf die Kenntnis über Informationen, die einen Verdacht begründen, dass eine schwere Straftat, die eine unmittelbare Bedrohung für das Leben oder die Sicherheit von Personen darstellt, begangen wurde, begangen wird oder begangen werden soll. Außerdem gibt es die Möglichkeit der behördlichen Anordnung, mit der die Plattform zum Vorgehen gegen bestimmte rechtswidrige Inhalte durch nationale Justiz- und Verwaltungsbehörden gezwungen werden kann. Hierüber besteht aber gleichzeitig eine Berichtspflicht der Plattform.
Die 2008 in den IT-Act aufgenommen weitreichenden Überwachungsbestimmungen, dienen auch dem Zweck der öffentlichen Ordnung. Das IT-Gesetz ermächtigt die Regierung auch Inhalte im Internet zu sperren. Im weltweiten Vergleich kommt es zu sehr häufigen Internet Shutdowns in Indien. Auch werden Apps wie beispielsweise TikTok verboten.
Der indische Weg zur Verbesserung der Informationsasymmetrie zwischen Regulierer und Regulierten bei der Regulierung von rechtswidrigen Inhalten auf Plattformen scheint derzeit in der direkten Beschaffung und Auswertung von Nutzerdaten, Internetabschaltungen, Sperrungen von Inhalten und den Regeln für Haftung von Plattformen zu bestehen. Problematisch kann hier gesehen werden, dass die dafür benötigten Ressourcen sicherlich begrenzt sein werden.
V. Fazit und Ausblick
In Indien wurde mit dem IT-Act und den IT-Rules versucht, die große und weltweit agierende Soziale Netzwerke bezüglich rechtswidriger Inhalte zu regulieren. Auch in Europa wurde mit dem DSA eine europäische Verordnung geschaffen, die u.a. durch die Ausweitung der Berichtspflichten Möglichkeiten schaffen möchte, rechtswidrige Inhalte auf Plattformen zu regulieren.
Offensichtlich lassen die Plattformen sowohl in Europa als auch in Indien diese Regulierung nicht einfach über sich ergehen. Es ist beispielsweise damit zu rechnen, dass Plattformen den Rechtsweg nutzen werden, um eine Anwendung des Art. 18 DSA und umfangreiche Berichtspflichten in dieser Form zu verhindern suchen. Ansatzpunkte hierfür gibt es verschiedene.[90]
In Indien sind mehrere Petitionen anhängig, die sich auf die Verfassungsmäßigkeit und die Überschreitung des IT-Acts von 2008 und die IT-Rules beziehen. Die nicht eindeutig formulieren Sorgfaltspflichten und die unbestimmten Verpflichtungen, die derzeit in den IT-Rules enthalten sind, bieten hier Angriffspunkte.[91]
Eine Überarbeitung des IT-Acts in Indien scheint notwendig. Es sollten Regulierungsmechanismen in Bezug auf Plattformtransparenz und Rechenschaftspflichten geschaffen werden, um Regulierungsbehörden, Forschern und anderen wichtigen Akteuren ein effektives Verständnis des Systems, der Informationsflüsse und Gestaltungselemente, die die Verbreitung von Fehlinformationen bewirken, zu ermöglichen und Geschäftsmodelle zu verstehen. So kann auch ein größeres öffentliches Bewusstsein für diese Themen geschaffen werden. Die größere Transparenz der Datenmoderation der Plattform sollte dann auch zu einer Weiterentwicklung der rechtlichen Rahmenbedingungen führen.[92]
Die indische Regierung hat mit dem „Proposed Digital India Act, 2023“ eine Überarbeitung angekündigt. Damit scheint Indien einen Weg in Richtung Rechenschaftspflicht und Verantwortung der Plattformen für rechtswidrige Inhalte gehen zu wollen. Der Zeitpunkt der Umsetzung ist allerdings noch nicht bekannt.[93] Damit würde sich Indien dem europäischen DSA zumindest teilweise annähern.
Inwieweit es den Plattformen insgesamt gelingen wird, sich Teilen der Regulierungen in ihrer Anwendung und Umsetzung in Europa und Indien zu entziehen, wird die Zukunft zeigen.
[1] Albers, Surveillance and Data Protection Rights: Data Retention and Access to Telecommunications Data, in: Albers, Marion; Sarlet, Wolfgang Ingi, Personality and Data Protection Rights on the Internet, 2022, Switzerland, S. 69-112, S. 70.
[2] Kakkar, Tackling Misinformation in Emerging Economies and the Global South: Exploring Approaches for the Indian Context, in : Fukuyama, Francis; Schaake, Marietje, Digital Technologies in Emerging Countries, Stanford, S. 48 f.
[3] Mast, Stellungnahme als Sachverständiger des Deutschen Bundestages zum Entwurf des Digitale-Dienste-Gesetzes (DDG), Deutscher Bundestag, 2024, Ausschuss für Digitales, Ausschussdrucksache 20(23)202, 19.02.2024, Hamburg, TOP 1 57. Sitzung am 21.02.2024, S. 35.
[4] Legner, Der Digital Services Act – Ein neuer Grundstein der Digitalisierung, ZUM, Heft 2/2024, S. 99-111, S. 99.
[5] Mondal/Silva/Benevenuto, A measurement study of hate speech in social media, Conference Paper, In Proceeding of HT’17, Prague, Czech Republic, July 04-07, 2017, 10 pages, (https://doi.org/10.1145/3078714.3078723), S. 9.
[6] Müller-Terpitz in: Müller-Terpitz/Köhler/, Kommentar Digital Services Act, Gesetz über digitale Dienste, 1. Auflage, München 2024, Artikel 1 Rn. 2.
[7] Kuhlmann/Trute, Die Regulierung von Desinformation und Rechtswidrigkeiten Inhalten nach dem neuen Digital Services Act, GSZ Heft 3/2022, S. 115-122, S.115.
[8] Hofmann, in: Hoffmann/Raue, NOMOS Kommentar, Digital Services Act – Gesetz über digitale Dienste, 1. Auflage, Baden-Baden 2023, Art. 1 Rn. 13 (B. I.).
[9] Keppeler, Online Plattformen i.S.d. DSA Was ist eine Online-Plattform und wer ist Anbieter i.S.d. DSA?, Verlag Dr. Otto Schmidt, ITRB Heft 12/2023, S. 317-320, S.317.
[10] Information Technology Act, 2000.
[11] Kovacs, Cybersecurity and Data Protection Regulation in India, in Belli Luca (Hrsg.), CyberBRICS: Cybersecurity Regulations in the BRICS Countries, Switzerland, 2021, S. 139 ff. (zit.: Kovacs, Cybersecurity).
[12] Information Technology (Amendment) act, 2008.
[13] Kovacs, a.a.O., S. 141 ff.
[14] Kovacs, a.a.O., S. 146 f.
[15] Gupta/Mehta Regulating Digital Platforms – Intermediary Liability and Content Moderation in Copyright Enforcement, in: Tyagi, Kalpana (Hrsg.); Kampermann Sanders, Anselm (Hrsg.); Cauffman, Caroline (Hrsg.), Digital Platforms, Competition Law, and Regulation: Comparative Perspectives, London, 2024, S. 141-157 (https://dx.doi/10.5040/9781509969418>), S. 150.
[16] Gerdemann/Spindler, Das Gesetz über digitale Dienste (Digital Services Act) (Teil 1) – Grundlegende Strukturen und Regelungen für Vermittlungsdienste und Host-Provider, GRUR, Heft 1-2, S. 3.-11, 2023, 3 (4).
[17] Paal/Kieß, Digitale Plattformen im DSA-E, DMA-E und § 19a GWB, ZfDR, Heft 1/2022, S. 1-34, 1 (13).
[18] Kuhlmann/Trute a.a.O., 115.
[19] Kraul/Schmidt, Plattformregulierung 2.0 – Digital Services Act und Digital Markets Act als Herausforderung für die Compliance-Organiosation, CCZ, Heft 6/2023, S. 177-190, 177 (178).
[20] Paal/Kieß, a.a.O., 1 (13).
[21] European Commission, Digital Services Act, Press release IP/23/2413, 25.04.2023.
[22] Kraul/Schmidt, a.a.O., 177 (178).
[23] Kraul/Schmidt, a.a.O., 177 (178).
[24] Kuhlmann/Trute, a.a.O., 115 (116).
[25] Mast, a.a.O., S.7.
[26] Buchheim/Schrenk, Der Vollzug des Digital Services Act – Strukturen und Probleme eines vielfach Verschränkten Rechts- und Vollzugsregimes, NVwZ, Heft 1-2/2024, S. 1-8, S. 1.
[27] Kuhlmann/Trute, a.a.O., 115 (116).
[28] Chapter I Preliminary 1.(1), (2) The Information Technology Act, 2000.
[29] Chapter I Preliminary 1.(1), (2) The Information Technology Act, 2008.
[30] Einleitungssektion The Information Technology Act, 2000 sowie 2008.
[31] Teil II 4 IT-Rules.
[32] Ashwini, Social Media Platform Regulation in India – A Special Reference to The Information Technology Rules, 2021, in: Broemel, Roland (Hrsg.); Lüdemann, Jörn (Hrsg.); Podszun, Rupprecht (Hrsg.); Schweitzer, Heike (Hrsg.), Perspectives on Platform Regulation, Baden-Baden, 2021, S. 215-232, S. 216 f.
[33] Legner,, a.a.O., 99 Rn. 100 ff.
[34] Wilman, THE DIGITAL SERVICES ACT (DSA): AN OVERVIEW, European Commission, 2022, S. 1 – 21, S. 4 ff.
[35] Legner, a.a.O., 99 Rn. 100 ff.
[36] Wilman, a.a.O., S. 4 ff.
[37] Legner ,a.a.O., 99 Rn. 100 ff.
[38] EuGH GRUR 2011, 1025 Rn. 113 – L‘Oréal.
[39] Legner, a.a.O., 99 Rn. 100 ff.
[40] Wilman, a.a.O., S. 4 ff.
[41] Legner, a.a.O., 99 Rn. 100 ff.
[42] Husovec, Martin, Rising above Liability: The digital Services Act as a Blueprint for the second generation of global Internet rules, Berkeley Technology Law Journal Vol. 38, No. 3, Forthcoming, 2023, (http://dx.doi.org/10.2139/ssrn.4598426), S. 909 ff.
[43] Husovec, a.a.O., S. 909 ff.
[44] Devadasan, Conceptualising India’s Safe Harbour in the Era of Platform Governance, Indian Journal for Law and Technology, 2023 (Volume 19), S. 1-41, S. 11 ; Gupta/Mehta, a.a.O., S. 149.
[45] Gupta/Mehta, a.a.O., S. 151-152.
[46] Devadasan, a.a.O., S. 12 ff.
[47] Kakkar, a.a.O., S. 50 f.
[48] Devadasan, a.a.O., S. 17 ff.
[49] Gupta/Mehta, a.a.O., S. 156 f.
[50] Schiedermair/Well, Online-Intermediäre als Träger der Meinungsfreiheit, DÖV, Heft 8/2022, S. 305-314, S. 305 (305 f.).
[51] Peukert, Das Netzwerkdurchsetzungsgesetz: Entwicklung, Auswirkung, Zukunft, in: Spiecker gen. Döhmann, Indra; Westland, Michael; Campos, Ricardo (Hrsg.), Demokratie und Öffentlichkeit im 21. Jahrhundert – zur Macht des Digitalen, Baden-Baden, Januar 2022. S. 229-248, S. 245.
[52] Schiedermair/Weil, a.a.O., 305 (307).
[53] Raue/Heesen, Der Digital Services Act, NJW, Heft 49/2022, S. 3537-3543, 3537 (3540).
[54] Legner, a.a.O., 99 (106).
[55] Kuhlmann/Trute, a.a.O., 115 (117).
[56] Raue/Heesen, a.a.O. 3537 (3540).
[57] II 3(1)(c) IT-Rules.
[58] Kakkar, a.a.O., S. 52 f.
[59] Raue/Heesen, a.a.O., 3537 (3541).
[60] Kakkar, a.a.O., S. 50 f.
[61] II (2)3A (7) IT-Rules
[62] Devadasan, a.a.O., S. 20 ff.
[63] Gupta/Mehta, a.a.O., S. 151-152 ; Kakkar, a.a.O., S. 50 f.
[64] Kakkar, a.a.O., S. 50 f.
[65] Dregelies, Digital Services Act – Überblick über den neuen Rechtsrahmen für das Internet, MMR, Heft 12/2022, S. 1033-1038, 1033 (1036).
[66] Kuhlmann/Trute, a.a.O., 115 (118).
[67] II 3(1)(j) IT-Rules.
[68] Kuhlmann/Trute, a.a.O., 115 (120f.).
[69] Legner, a.a.O., 99 (109).
[70] Kuhlmann/Trute, a.a.O., 115 (120f.).
[71] Legner, a.a.O., 99 (109).
[72] Kuhlmann/Trute, a.a.O.,115 (120f.).
[73] Legner, a.a.O., 99 (109).
[74] Kühling, „Fake News“ und „Hate-Speech“ – Die Verantwortung der Medienintermediäre, Zwischen neuem NetzDG, MStV und Digital Services Act, ZUM, Heft 6/2021, S. 461-472, 461 (469).
[75] Buchheim/Schrenk, a.a.O., 8.
[76] Kuhlmann/Trute, a.a.O., 115 (120f.); Kühling, a.a.O., 461 (469).
[77] Kuhlmann/Trute, a.a.O., 115 (120 ff.).
[78] Keppeler, a.a.O., 317 (318); Strobl, Virtuelle Welten, reale Rechte: Die Durchsetzung des Urheberrechts im Metaverse, ZUM, Heft 7/2023, S. 492-500, 492 (495 f.).
[79] Liesching, Fünf Jahre Netzwerkdurchsetzungsgesetz – Bilanz und Ausblick, MMR, Heft 1/2023, S. 56-60, 56 (60).
[80] Devadasan, a.a.O., S. 20 ff.
[81] II 4(1)(a) IT-Rules
[82] Kakkar, a.a.O., S. 50f.
[83] Kovacs, a.a.O., S. 143 ff.
[84] Kovacs, a.a.O., S. 143 ff.
[85] Kovacs, a.a.O., S. 144.
[86] Kakkar, a.a.O. S. 50 f. ; Kovacs, a.a.O., S. 143.
[87] Prakash, Internet blocking and shutdowns in India and international human rights law, in: Indian Public Policy Review, 2024, 5(3), S. 38-76, S. 40 ff. sowie Naruka Cyber Liberties, S. 15.; Ashwini, a.a.O., S. 218 f.
[88] Travelli/Raj, What Can the U.S. Learn From India’s TikTok Ban?, The New Yorker, Abschnitt B, Seite 1, 25. März 2024.
[89] Ashwini, a.a.O., S. 218 f.
[90] Tschorr, a.a.O., 1053 (1055 ff.).
[91] Devadasan, a.a.O., S. 40 f. ; Ashwini, a.a.O., S. 229.
[92] Kakkar a.a.O., S. 48 f.
[93] Ministry of Electronics and Information Technology Government of India, Proposed Digital India Act, 2023, Digital India Dialogues, 09.03.2023, Bengaluru, Karnataka.
