Auch nach Einführung des deutschen Netzwerkdurchsetzungsgesetzes stellen Beleidigung und Hassrede in sozialen Netzwerken einen rechtlich komplexen Sachverhalt dar. Inwiefern geht die Politik diese Problematik an?
Bengt Petersen, Universität Hamburg
Soziale Netzwerke nehmen eine zentrale Rolle im gesellschaftlichen Leben ein. Sie dienen Unterhaltung, Austausch, Information und politischer Auseinandersetzung. Aber sie bieten auch Raum für Hass, Fake-News und Beleidigungen. Ehrverletzende Beiträge wirken im digitalen Raum teils gravierender als in der analogen Welt, weil sie für jedermann zugänglich, viral in Windeseile verbreitet und dauerhaft abrufbar sind. Doch die gesetzliche Regulierung birgt Tücken.
I. Das Netzwerkdurchsetzungsgesetz und dessen Probleme
Das sogenannte Netzdurchsetzungsgesetz (NetzDG) brachte der Gesetzgeber in der zweiten Hälfte 2017 auf den Weg, um gegen Hasskriminalität im Netz vorzugehen. Begründet wurde das Gesetz seitens der Bundesregierung wie folgt:
„Gegenwärtig ist eine massive Veränderung des gesellschaftlichen Diskurses im Netz und insbesondere in den sozialen Netzwerken festzustellen. Die Debattenkultur im Netz ist oft aggressiv, verletzend und nicht selten hasserfüllt. Durch Hasskriminalität und andere strafbare Inhalte kann jede und jeder aufgrund der Meinung, Hautfarbe oder Herkunft, der Religion, des Geschlechts oder der Sexualität diffamiert werden. Hasskriminalität und andere strafbare Inhalte, die nicht effektiv bekämpft und verfolgt werden können, bergen eine große Gefahr für das friedliche Zusammenleben einer freien, offenen und demokratischen Gesellschaft.“ (Drucksache 18/12727 vom 14.06.2017)
Mit dem Gesetz sollten soziale Netzwerke als Orte der Hassrede und öffentlichen Beleidigung in die Verantwortung genommen werden. Grundsätzlich ist das Ziel des NetzDG, Host-Provider von sozialen Netzwerken zu verpflichten, schneller und gezielter gegen strafbare Posts vorzugehen. In § 3 I NetzDG heißt es dazu, dass Anbieter von sozialen Netzwerken ein wirksames und transparentes Verfahren für den Umgang mit Beschwerden über rechtswidrige Inhalte vorhalten müssen. Zu diesem Verfahren gehört nach § 3 II Nr. 2 NetzDG auch, dass offensichtlich rechtswidrige Inhalte innerhalb von 24 Stunden nach Eingang der Beschwerde entfernt oder die Zugänge zu ihnen gesperrt werden müssen. Damit soll es Nutzer*innen sozialer Netzwerke erleichtert werden, gegen Beleidigungen und Hassrede vorzugehen.
Ein solches Vorgehen verspricht Abhilfe, birgt allerdings auch Probleme. Kritik kam schon vor Beschluss im Bundestag von vielen Seiten. FDP-Politiker Wolfgang Kubicki etwa sprach von einer Kapitulation des Rechtsstaats.[1] Ein erstes Problem sahen Jurist*innen im sogenannten „Overblocking“. Gemeint ist die Gefahr, dass unkontrolliert alle Kommentare und Posts entfernt werden könnten, die sich in juristisch nicht eindeutigen Grauzonen befinden. Um den durch das NetzDG ausgerufenen Bußgeldern (bis zu 5 Millionen Euro) zu entgehen, so die Befürchtung, würden Netzwerkbetreiber nun auch Posts und Kommentare löschen, die eigentlich nicht vom NetzDG erfasst werden sollten.[2] Da das NetzDG nicht verlangt, rechtmäßige Posts und Kommentare unberührt zu lassen, wurde befürchtet, dass eher zu viel als zu wenig gelöscht werde. Löschungen bei Facebook und Google würden ferner auf der Grundlage der jeweiligen „Community Standards“ und Richtlinien erfolgen und durch diese – auch im Falle rechtskonformer Posts – legitimiert. Die Kriterien der Löschung wären dabei eher intransparent und juristisch kaum zu prüfen. Privatunternehmen würden unkontrolliert darüber befinden, was Menschen äußern dürften und was nicht. Kritiker sahen darin einen Einschnitt in die Meinungsfreiheit – nicht nur illegale, sondern auch unliebsame oder unpopuläre Meinungen könnten verschwinden.[3]
Zweieinhalb Jahre später erscheinen diese Sorgen als in Teilen durchaus begründet. Auch wenn das Bundesministerium der Justiz und für Verbraucherschutz (BMJV) keine Anzeichen für ein Overblocking erkennt[4], kommt es immer wieder zu willkürlichen Sperrungen von Accounts und Löschungen von Posts. Kurz vor der Europawahl 2019 sperrte Twitter z.B. eine ganze Reihe Accounts.[5] Als Grund wurde ein Verstoß gegen die Regeln „zum Veröffentlichen von irreführenden Informationen zu Wahlen“ angegeben. Der prominenteste Fall war zu jener Zeit die Sperrung des Twitter-Accounts der „Jüdischen Allgemeinen“, welche in einem Post lediglich auf ein Interview mit dem israelischen Botschafter Jeremy Issacharoff verwiesen hatte.[6] Irreführende Wahlinformationen waren hier nicht ersichtlich. Viele im Zuge der Europawahl gesperrten Accounts lassen sich einer politischen Richtung zuordnen. Sven Kohlmeier (SPD) befand dazu: „Das sind alles Accounts, die eine Meinung [in] Bezug zur AfD äußern oder sich kritisch zur AfD geäußert haben.“[7] Zurückzuführen auf das NetzDG ist diese Sperrwelle nun nicht, jedoch wurde deutlich, dass ein Overblocking durch erhöhtes Beschwerdeaufkommen sogar forciert werden kann: Durch eine missbräuchliche Nutzung der Meldefunktionen, kann es zu fehlenden Kapazitäten bei den Netzwerken kommen. Eine fundierte Bewertung jeder einzelnen Beschwerde wäre nicht mehr zu gewährleisten, im schlechtesten Fall würden Inhalte ungeprüft gelöscht.
Die Entscheidung, die Verantwortung für die Rechtsdurchsetzung in ihren öffentlichen Digitalräumen an die Privatunternehmen zu übertragen, ist aber nicht nur rechtsgrundsätzlich, sondern auch hinsichtlich der konkreten Umsetzung problematisch: Das zweite Problem, das sich hier stellt, ist ein potenzieller Mangel an juristischem Sachverstand. Die Umsetzung des Netzwerkdurchsetzungsgesetzes erfordert eine fundierte Bewertung von Netzinhalten. Zur Prüfung von Löschungsbegehren hat eine Einzelfallabwägung zwischen der Schwere der Persönlichkeitsbeeinträchtigung und der Beeinträchtigung der Meinungsfreiheit zu erfolgen. Für den Umgang mit Beschwerden müssen Netzwerke natürliche Personen beauftragen. Um Volljuristen muss es sich dabei allerdings nicht handeln. In § 3 IV NetzDG ist lediglich festgelegt, dass ihnen vom Arbeitgeber regelmäßig deutschsprachige Schulungs- und Betreuungsangebote gemacht werden müssen. Somit ist davon auszugehen, dass die Entscheidung, ob bei Inhalten in sozialen Netzwerken eine Rechtswidrigkeit vorliegt oder nicht, bei Personen liegt, die über eine allenfalls geringfügige juristische Qualifikation verfügen.[8]
Erschwerend kommt hinzu, dass der Tatbestand der Beleidigung (§ 185 Strafgesetzbuch (StGB)) selbst keine Definition enthält. In der Vergangenheit kamen daher vermehrt Rechtsmeinungen auf, die dem § 185 StGB die Vereinbarkeit mit dem Bestimmtheitsgebots aus Art. 103 II Grundgesetz (GG) absprachen. [9] Das Bundesverfassungsgericht hält § 185 StGB dennoch für verfassungsgemäß, da in einer „über hundertjährige(n) und im wesentlichen einhellige(n) Rechtsprechung“ dieser Straftatbestand „einen hinreichend klaren Inhalt“ erlangt hat.[10] Ob sich dieser Inhalt nun aber für jene Personen als verständlich und eindeutig erweist, die bei Facebook, Twitter etc. mit der Prüfung betraut sind, ist zumindest ungewiss. Wie der Beschluss des LG Berlin im Fall Künast[11] zeigt, ist der Inhalt des Straftatbestands auch innerhalb verschiedener Gerichtsbarkeiten stark umstritten. Wenn sich bereits Richter mit einer solchen Abwägung schwer tun, mutet es fahrlässig an, die Abwägung einem – wenn auch geschulten – Nicht-Juristen zu überlassen.
II. Der neue Entwurf
Das Netzwerkdurchsetzungsgesetz konnte in den bisherigen zwei Jahren aber auch Erfolge verbuchen: Allein in der zweiten Jahreshälfte 2019 gingen bei Twitter 798.161 Beschwerden ein, davon wurden in ganzen 134.007 Fällen Maßnahmen ergriffen.[12] Diese Zahlen zeigen, dass Betreiber ihren Prüf- und Löschpflichten durchaus nachkommen. Weiterhin wurde auch ersichtlich, dass von behördlicher Seite eingehend überprüft wird, ob Netzwerkanbieter ihren Verpflichtungen nachkommen oder ob Verbesserungsbedarf besteht: Letzteres war bei etwa Facebook der Fall: So dokumentierte Facebook in seinem Halbjahresbericht (Jan-Jun 2019) z.B. nur 674 Beschwerden bzw. Beschwerden, die iSd. NetzDGs erfolgt sein sollen.[13] Facebook verfügt – anders als YouTube oder Twitter – über zwei Meldewege für Beschwerden: Zum einen den sogenannten „Flagging-Meldeweg“, welcher direkt bei den Posts zu finden ist, zum anderen ein „NetzDG-Meldeformular“, welches zunächst äußerst schwer aufzufinden war. Der Transparenzbericht zählte aber ausschließlich die Beschwerden, die über das Meldeformular eingingen. Ein Missstand, den das Bundesamt für Justiz rügte und mit einem Bußgeldbescheid in Höhe von 2 Millionen Euro versah.[14]
Zusammengefasst lieferte das NetzDG Ansätze für Regulierung, die der Nachjustierung bedürfen. Dieser Ansicht war offensichtlich auch die Bundesregierung und insbesondere Bundesjustizministerin Christine Lambrecht (SPD) so, denn im Frühjahr 2020 wurden gleich zwei neue Entwürfe bzw. Erweiterungen zum NetzDG im Bundeskabinett beschlossen.
Die erste Veränderung soll dafür sorgen, dass Posts und Accounts nicht nur gelöscht werden, sondern die verantwortlichen User auch strafrechtlich belangt werden. Im Gesetzentwurf heißt es: „Zentral ist (…) eine effektive Strafverfolgung insbesondere von Hasskriminalität mit rechtsextremistischem Hintergrund, (…) gerade auch bei Tatbegehungen im Internet.“[15] Anbieter sollen verpflichtet werden, ein System einzurichten, mit Hilfe dessen bestimmte strafbare Inhalte an das Bundeskriminalamt (BKA) gemeldet werden; inklusive IP-Adressen, Portnummern und sogar Passwörtern derjenigen Nutzer*innen, welche die Äußerungen verantworten.[16] Zu den meldepflichtigen strafbaren Inhalten zählen u.a. strafbare Gewaltdrohungen, Neonazi-Propaganda und Volksverhetzung. Beleidigungen, üble Nachrede und Verleumdung fallen nicht unter die Meldepflicht; hier sollen Betroffene weiterhin selber entscheiden können, ob sie den Vorfall melden. Zur Durchführung dieser Gesetzeserweiterung sollen auch Tatbestände des Strafgesetzbuches (StGB), der Strafprozessordnung (StPO) und des Telemediengesetzes (TMG) geändert werden.
Die zweite Erweiterung soll die Nutzerrechte stärken. So soll die Nutzerfreundlichkeit der Meldewege zum Übermitteln von Beschwerden über rechtswidrige Inhalte erhöht werden.[17] Ferner sollen ein Verfahren zum Umgang mit Gegenvorstellungen zu Netzwerk-Maßnahmen eingeführt werden und Schlichtungsstellen benannt werden.[18]
Mit den Gesetzesentwürfen reagiert die Bundesregierung offensichtlich auf die Kritik an der bestehenden Fassung des NetzDG und bemüht sich um Lösungsansätze. Eine Meldepflicht der Netzwerke für bestimmte strafrechtliche Inhalte an das BKA soll einerseits dafür sorgen, dass die Strafverfolgungsbehörden dem Legalitätsprinzip aus §§ 152 II, 170 I StPO entsprechen, indem sie Ermittlungen durchführen und Anklage erheben, sowie andererseits dafür, dass ein Teil der Beurteilungskompetenz an den Staat zurück geht. Die Änderung soll somit offenbar u.a. die stark kritisierte Beurteilungshoheit der Netzwerke regulieren. Doch Zweifel, ob die Regulierung gelingt, bestehen dennoch. So sieht z.B. Manuel Höferlin – digitalpolitischer Sprecher der FDP -, die neue Rolle der Netzwerk-Anbieter äußerst kritisch: „Die Anbieter Sozialer Medien sollen nun nicht nur als Hilfs-Sheriffs herhalten, sondern werden zur ausgelagerten Rechtsabteilung der Justiz“.[19] Auch erscheine der Entwurf als Eingriff in die Meinungsfreiheit und des Fernmeldegeheimnisses. Daten würden an das BKA pauschal übermittelt, obwohl es vollumfänglich an einem Anfangsverdacht fehle. Zudem werde mit den Daten „eine Verdachtsdatenbank beim BKA aufgebaut, in der Inhalte und zugehörige IP-Adressen gespeichert werden“, so Höferlin.[20] Eine Verbesserung für Betroffene Nutzer sei nur marginal erkennbar.
Die Kritikpunkte überzeugen nur teilweise. Auch wenn die sozialen Netzwerke nun Verdachtsfälle melden müssen, üben sie eben nicht rechtsstaatliche Funktionen aus. Entscheidungen werden weiterhin vom BKA und der Staatsanwaltschaft getroffen. Sozialen Netzwerken kommt gewissermaßen die Aufgabe zu, als Zeuge rechtswidrige Taten zu melden. Das erscheint aufgrund ihrer besonderen Stellung im Internet durchaus angemessen. Auch die Kritik, dass Daten pauschal und ohne Anfangsverdacht übermittelt werden, überzeugt nicht. Es ist bei Straftaten üblich, dass erst nach Eingang des Sachverhaltes geprüft wird, ob ein Anfangsverdacht vorliegt und ein Ermittlungsverfahren eingeleitet werden muss. Dieses Prozedere wird auch hier eingehalten.
Kritisch zu betrachten ist allerdings die Möglichkeit, dass Verdachtsdatenbanken errichtet werden könnten: Datenbanken sollten, wann immer möglich, aufgrund ihrer Missbrauchsanfälligkeit vermieden werden. Gerade im Hinblick auf die umfassenden Informationen, die sich aus „Social-Media-Profilen“ ziehen lassen, kann eine solche Datenbank weitreichende Folgen haben. Davor warnen auch 13 Vereine und Verbände in einem offenen Brief an Bundesjustizministerin Christine Lambrecht: „Wenn sowohl Opfer als auch Täter von den sozialen Netzwerken ‚Gruppen‘ zugeordnet werden sollen, um besser zu analysieren, wer bedroht wird und woher die Bedrohung kommt, dann schaffen wir Register etwa von ‚Juden‘, ‚Homosexuellen‘ oder ‚Transpersonen‘. Dies sollte nicht nur aufgrund der Lehren der deutschen Geschichte eine rote Linie sein, sondern auch in Anbetracht der aktuellen Berichterstattung über den Missbrauch von polizeilichen Datenbanken durch Beschäftigte“[21]
Gegen den Gesetzesentwurf spricht derzeit ferner, dass die Ermittlungsstellen der BKA und Justiz schon jetzt überlastet sind und geschätzte 250.000 zusätzliche Meldungen pro Jahr [22] schlicht nicht bearbeiten können.
Weniger Problematisch erscheint der zweite Änderungsvorschlag der Bundesregierung: Dem Versuch seitens Facebook und Co., ihre Meldeeinrichtungen so zu verstecken, dass kaum Beschwerden eingehen, soll nun ein Riegel vorgeschoben werden. Eine sehr sinnvolle Ergänzung, denn ein Beschwerdeverfahren, wie es das NetzDG vorsieht, funktioniert nur, wenn der Beschwerdeweg einfach ist und schnell. Zusätzlich wird im zweiten Änderungsvorschlag die Problematik des Overblocking angegangen. Die Option, sich als gesperrter Nutzer in einem Gegenvorstellungsverfahren äußern zu dürfen, ist ein richtiger Schritt. Für die Netzwerke wird es sich fortan nicht mehr lohnen, einfach jeden kritischen Beitrag zu eliminieren, da sich die Betreiber in jedem Falle mit dem Inhalt auseinandersetzen und ihre Entscheidung begründen müssen. Ob dies im Vorlauf oder nach einem Gegenvorstellungsverfahren geschieht, ist für das soziale Netzwerk irrelevant.
Die Bundesregierung scheint auf die Kritik der Allgemeinheit zumindest partiell reagiert zu haben. Es bleibt abzuwarten, inwieweit sich die Änderungen auszahlen und wirken.
III. Beleidigungsschutz in der EU
Auch in Kreisen der Europäischen Union wurde der Schritt zum NetzDG sehr kritisch gesehen. EU-Justizkommissarin Vera Jourová stellte die Verhältnismäßigkeit infrage. Eine rechtliche Festsetzung von Löschpflichten für soziale Netzwerke berge eine zu große Gefahr für die Meinungsfreiheit.[23] Die EU solle vielmehr weiterhin nach dem Modell der freiwilligen Selbstverpflichtung verfahren; auch deshalb, weil eine Löschpflicht gegen EU-Recht verstoße [24]. Diese Auffassung wird vermehrt geteilt. Das NetzDG entspreche ferner nicht den Vorgaben des Herkunftslandprinzips[25], demzufolge für Hostprovider das Recht jenes EU-Staats gelte, in welchem dieser seinen Sitz habe. Das NetzDG mache aber auch Netzwerke mit Sitz außerhalb Deutschlands verantwortlich, die ihren Dienst in Deutschland anbieten.[26] Des Weiteren dürfe eine Löschpflicht den Anbietern nicht auferlegt werden. Anbieter müssten zwar nach Art. 14 Ib der E-Commerce-Richtlinie vom 08. Juni 2000 unverzüglich tätig werden, sobald sie Kenntnis oder Bewusstsein von einer Rechtsverletzung erlangten – andernfalls seien die Anbieter verantwortlich zu machen – eine Löschpflicht gehe aber zu weit. Der Diensteanbieter speichere die Informationen des Nutzers in dessen Auftrag und nur dieser sei als Inhaber der Daten zu qualifizieren. In diese Rechtsposition dürfe das Netzwerk auch bei rechtswidrigen Beiträgen nicht eingreifen, denn der Diensteanbieter sei weder mit polizeilichen Befugnissen ausgestattet, noch stehe ihm ein Rechtfertigungsgrund zur Seite.[27] Zulässig sind also nur Maßnahmen, die den Zugang zum Post bzw. den Account sperren oder ihn nicht weiter anzeigen. Die Pflicht des Anbieters besteht darin, die aufgeführten Maßnahmen bei rechtswidrigen Beiträgen durchzuführen, vgl. Art. 14 Ib der E-Commerce-RL. Ob das NetzDG nun gegen Recht der Europäischen Union verstößt, ist bislang nicht abschließend geklärt. Dass Netzwerkanbieter grundsätzlich verpflichtet sind, bei rechtswidrigen Posts zu handeln, ist allerdings unstrittig. Fraglich war bislang jedoch immer, in welchem Ausmaß diese Pflicht durchzuführen ist.
IV. Art. 15 und der EuGH
Dieser Frage musste sich der Europäische Gerichtshof nun vor kurzem annehmen. Vorausgehend klagte eine (damals) österreichische Politikerin gegen Facebook. Ein Facebook-User postete einen Artikel des österreichischen Online-Nachrichtenmagazins oe24.at mit dem Titel „Grüne: Mindestsicherung für Flüchtlinge soll bleiben“ und kommentierte diesen Artikel mit einer herabwürdigen Bewertung.[28] Die ehemalige Grünen-Politikerin Eva Glawischnig sah sich in dem Post beleidigt und forderte Facebook auf, ihn zu entfernen. Als dies nicht geschah, reichte sie Klage ein. Vor dem Oberlandesgericht Wien konnte die Klägerin schließlich einen Erfolg erzielen: Das Gericht verpflichtete Facebook dazu, nicht nur die Veröffentlichung von konkret beanstandeten Kommentaren zu unterlassen, sondern auch wort- und sinngleiche Inhalte zu löschen.[29] Doch dem in nachfolgender Instanz mit der Thematik befassten Obersten Gerichtshof (OGH) kamen Zweifel, ob eine solche Verpflichtung nicht zu weitreichend sei. Art. 15 I der E-Commerce-RL macht deutlich, dass eine Verpflichtung zur Überwachung von Informationen oder zur Nachforschung von rechtswidrigen Beiträgen den Netzwerken nicht auferlegt werde kann. Daher erschien es strittig, ob Anbietern auch das Entfernen von wort- und sinngleichen Inhalten zugemutet werden könne.
Im Ergebnis bestätigte der EuGH das Urteil des OLG Wien und ging sogar noch darüber hinaus. Dabei stellte sich der EuGH gar nicht erst die Frage, ob unter Art. 14 Ib das Löschen von Inhalten falle; er ging vielmehr davon aus.
Ob das Entfernen von wort- und sinngleichen Inhalten mit Art. 15 I vereinbar sei, beantwortete das Gericht wie folgt: „Damit eine Verfügung, mit der eine rechtswidrige Handlung abgestellt und ihre Wiederholung sowie ein weiterer Schaden bei den Betroffenen verhindert werden sollen, diese Ziele tatsächlich erreichen kann, muss sich diese Verfügung folglich auf Informationen erstrecken können, deren Inhalt wegen der verwendeten Worte oder ihrer Kombination im Vergleich zu der Information, deren Inhalt für rechtswidrig erklärt worden ist, zwar leicht unterschiedlich formuliert ist, aber im Wesentlichen die gleiche Aussage vermittelt. Andernfalls könnten nämlich, wie das vorlegende Gericht ausführt, die Wirkungen, die an eine solche Verfügung geknüpft sind, leicht umgangen werden, indem Aussagen gespeichert werden, die sich kaum von den zuvor für rechtswidrig erklärten Aussagen unterscheiden, was dazu führen könnte, dass die betroffene Person eine Vielzahl von Verfahren anstrengen muss, um zu erwirken, dass das Verhalten, dessen Opfer sie ist, aufhört.“[30] Eine Verpflichtung zur Löschung von wort- und sinngleichen Inhalten sei, so das EuGH, somit rechtens; mit Art. 15 I sei jedoch nicht zu vereinbaren, dass Netzwerke jeweils eine gesonderte autonome Beurteilung durchführen müssen. Vielmehr sollten „automatisierte Techniken und Mittel zur Nachforschung“ eingesetzt werden.
Darüber hinaus sollte die Frage beantwortet werden, ob Posts sogar weltweit gesperrt werden müssten, oder lediglich im Mitgliedstaat des jeweiligen Nutzers. Der EuGH stellte klar, dass aus der E-Commerce-RL keinerlei entgegenstehende Vorschriften zu erkennen seien, „sodass Verfügungen weltweit Wirkungen erzeugen“ könnten.[31]
Das Urteil stellt eine klare Stärkung betroffener Nutzer*innen dar, deren allgemeines Persönlichkeitsrecht durch Beleidigungen o.ä. beeinträchtigt wurde, womit nicht unbedingt zu rechnen war. Denn schon der Generalanwalt hatte für eine weite Auslegung des Art. 15 I plädiert, sodass Verpflichtungen zum Löschen wort- und sinngleicher Inhalte nicht geboten wären. Neben dem Kostenfaktor führte der Generalanwalt die Meinungs- und Informationsfreiheit als Begründung ins Feld. Diese sei in Gefahr, wenn Facebook zur Löschung solcher Drittkommentare verpflichtet würde, heißt es in den Schlussanträgen. [32]
Beide Sorgen des Generalanwalts sind berechtigt. Und zwar aus nachfolgendem Grund zum Stichwort „Inhaltsfilter“.
Der EuGH hat in seinem Urteil entschieden, dass im Falle von sinn- bzw. wortgleichen Posts, zwar eine Löschung zu erfolge habe, jedoch die autonome Beurteilung eines jeden vermeintlich sinn- oder wortgleichen Posts nicht nicht erwartet werden könne. Vielmehr sollen moderne Techniken, konkret Inhaltsfilter, als Schutzmechanismen eingesetzt werden. Inhaltsfilter können sehr teuer sein – gerade für kleinere Netzwerke. Aber sie können vor allem fehlerbehaftet sein. Inhaltsfilter können vorgegebene Wörter in Texten finden, aber sie verstehen weder Humor, noch Satire oder Ironie. Sie können nicht erkennen, ob jemand eine Aussage zitiert. Und ein Filter kann vor allem keinen Kontext erfassen.
Zeitschriften wie „Titanic“ oder „Der Postillon“ könnten große Schwierigkeiten bekommen, indem ihre Beiträge massenhaft Inhaltsfiltern zum Opfer fallen. Ein gravierender Einschnitt in unserer Meinungs- und Informationsfreiheit.
Fraglich bleibt aber auch, inwiefern eine weltweite Löschung umsetzbar ist. Der EuGH stellt den nationalen Gerichten frei zu entscheiden, ob Posts weltweit gesperrt werden sollen. Für manche Nutzer*innen wäre eine weltweite Sperrung durchaus sinnvoll, da bislang eine Sperrung bei Facebook oder Twitter bislang nur für ein konkretes Land gilt. Wurde also ein Post in Deutschland gesperrt oder gelöscht, war dieser in der Regel weiterhin in Frankreich oder der Schweiz sichtbar. Und selbst in Deutschland konnte der Post per VPN noch zu finden sein. Eine weltweite Sperrung stünde dem entgegen.
Unklar bleibt allerdings, wie ein solches Verfahren über Ländergrenzen und vor allem über Landesgesetze hinweg umzusetzen ist. Wenn schon nationale Gerichte zu unterschiedlichen Auffassungen darüber kommen, was unter einer Beleidigung zu verstehen ist, wird ein einhelliges Verständnis auf internationaler Ebene nicht minder schwer zu erlangen sein. Und dass nun ungarische Gerichte – in der aktuellen politischen Lage im Land – entscheiden sollen, wann ein Post wegen angeblicher Beleidigung gelöscht werden soll, kann wahrlich nicht in unserem Interesse liegen. Mit einem hohen Maß an Missverständnissen und Auseinandersetzungen – über Sprachgrenzen hinweg – ist zu rechnen. Dementsprechend entsetzt fiel auch die Reaktion bei Facebook aus: „(…)Dieses Urteil geht viel weiter. Es untergräbt den langjährigen Grundsatz, dass ein Land nicht das Recht hat, einem anderen Land seine Sprachgesetze aufzuerlegen. (…) Wir hoffen, dass die Gerichte einen angemessenen Ansatz verfolgen, um die Meinungsfreiheit nicht zu beeinträchtigen.“[33] Wie schon zuvor angemerkt, handelt es sich allerdings um keine auferlegte Pflicht des EuGH, sondern vielmehr um eine bloße Tatsachenbeschreibung: EU-Recht widerspricht einer weltweiten Löschung nicht!
Der deutschen Gesetzgeber muss sich nun Gedanken machen, ob er die Ausführungen des EuGH in deutsche Gesetze einfließen lassen möchte. Zumindest eine Löschpflicht für Netzwerke von sinn – und/oder wortgleichen Posts scheint in der Umsetzung möglich zu sein. Das Löschpflichten jedoch jemals wirksam länderübergreifend durchgesetzt werden können, erscheint wenig wahrscheinlich.
V. Fazit
Der Umgang mit Beleidigungen in sozialen Netzwerken stellt weiterhin eine rechtliche, technische und organisatorische Herausforderung dar. Auch wenn Gesetze wie das NetzDG gute Ansätze zeigen, bleibt ein stetiger Kampf zwischen Nutzerinteressen auf der einen und Meinungs- und Informationsfreiheit auf der anderen Seite bestehen.
Um begründete Interessen betroffener Nutzer*innen stärken zu können, wird man wohl eine gewisse Beschränkung dieser Grundrechte hinnehmen müssen. Auch der EuGH hat dies erkannt und weitreichende Entscheidungen pro Nutzerrechte gefällt; dennoch bleibt weiter abzuwägen, in welchem Maß und in welcher Form dies geschehen darf und kann.
Grundsätzlich erscheint es richtig, die sozialen Netzwerke verantwortlich zu machen und unter Umständen auch haften zu lassen. Allerdings dürfen die Maßnahmen nicht dazu führen, dass Netzwerkanbieter zu überforderten Gehilfen der Staatsanwaltschaft oder privatwirtschaftlichen Zensoren werden.
Es bleibt abzuwarten, wie sich der neue Gesetzesentwurf des NetzDG und die Entscheidung des EuGH auf den Umgang mit Beleidigungen in sozialen Netzwerken auswirken und welche Fortschritte im Kampf dagegen zu verzeichnen sind.
[1] taz.de, Kritik am Netzwerkdurchsetzungsgesetz, 11.01.2018.
[2] Der Tagesspiegel, Erste Bilanz des NetzDG: Overblocking?, 27. 07. 2018.
[3] LTO, Netzdurchsetzungsgesetz: Facebook – Justiz statt wirksamer Strafverfolgung?, 24.03.2017.
[4] BMJV, FAQ: Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes, 01.04.2020.
[5] SPON, Sperren wegen Wahlbeeinflussung: Twitter-Scherze zur Europawahl sind nicht mehr erlaubt, 15.05.2019.
[6] Jüdische Allgemeine, Twitter blockiert Account der »Jüdischen Allgemeinen«, 13.05.2019.
[7] vgl. ZDF, AfD-kritische Tweets, 14.05.2019.
[8] Möbius, Das Netzwerkdurchsetzungsgesetz und dessen verfassungsmäßige Bedeutung am Beispiel der Beleidigung, 2017.
[9] z.B. Findeisen/Hoepner/Zünckler, ZPR 1991, Heft 7, 245f.
[10] vgl. BVerfGE 71, 108 [114 ff.]
[11] LG Berlin, Beschl. v. 09.09.2019 – 27 AR 17/19
[12] NetzDG-Report-Twitter, https://cdn.cms-twdigitalassets.com/content/dam/transparency-twitter/data/download-netzdg-report/netzdg-jul-dec-2019.pdf.
[13] NetzDG-Tranzparenzbericht-Facebook, https://about-fb-preprod.go-vip.net/wp-content/uploads/2019/07/facebook_netzdg_july_2019_deutsch_2.pdf, Juli 2019.
[14] tagesschau.de, Umsetzung des NetzDG: Millionen-Bußgeld gegen Facebook, 02.07.2019.
[15] BMJV, Entwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, S. 1, 19.02.2020.
[16] BMJV, Entwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, S. 2, 19.02.2020.
[17] BMJV, Entwurf eines Gesetzes zur Änderung des Netzwerkdurchsetzungsgesetzes, S. 2, 31.03.2020.
[18] BMJV, Entwurf eines Gesetzes zur Änderung des Netzwerkdurchsetzungsgesetzes, S. 2, 31.03.2020.
[19] vgl. Netzpolitik, Netzwerkdurchsetzungsgesetz: Bundesregierung beschließt Pflicht zur Passwortherausgabe, 19.02.2020.
[20] vgl. Kommunal, EIN GESETZ DAS AUF VIEL KRITIK STÖSST: Netzwerkdurchsetzungsgesetz – zwischen Schutz und Kritik, 20.02.2020.
[21] digitalegesellschaft, Pressemitteilung: Offener Brief gegen Passwortherausgabepflicht und Strafverschärfungen, 12.02.2020.
[22] BMJV, Entwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, S. 26, 19.02.2020.
[23] SPON, Debatte ums NetzDG: EU-Justizkommissarin zweifelt am Maas-Gesetz, 19.01.2018.
[24] FAZ, NetzDG: EU-Kommission legt Maas keine Steine in den Weg, 19.06.2017.
[25] Europarechtliche Grundlage: 2010/13/EU – AVMD-Richtlinie; Deutsche Gesetzesumsetzung: § 3 TMG
[26] digitalegesellschaft, Verstoß gegen EU-Recht: Bundestag verabschiedet NetzDG, 30.06.2017.
[27] Grabitz/Hilf/Marly, Das Recht der Europäischen Union, Art. 14, Rn.15.
[28] EuGH Urteil vom 3.10.2019 – C-18/18 – NJW 2019, 3287.
[29] OLG Wien 26.4.2017, 5 R 5/17t.
[30] EuGH Urteil vom 3.10.2019 – C-18/18 – NJW 2019, 3287.
[31] EuGH Urteil vom 3.10.2019 – C-18/18 – NJW 2019, 3287.
[32] vgl. LTO, EuGH-Generalanwalt zu Beleidigungen auf Facebook: Eine Löschung Light, bitte, 04.06.2019.
[33] vgl. oc-24, Europas oberstes Gericht setzt neue Maßstäbe bei der Online-Überwachung illegaler Sprache, 03.10.2019.