Print Friendly, PDF & Email
Die EU-Urheberrechtsreform: Upload-Filter – Eine „Gefahr für das freie Netz“?
Julius Adler, Universität Hamburg

Schon seit einigen Jahren wird im Hinblick auf die fortschreitende Digitalisierung eine Reform des EU-Urheberrechts diskutiert. Am 5. Juli 2018 sprach sich das Europäische Parlament gegen den Entwurf einer Richtlinie[1] zur Reformierung des Urheberrechtes im digitalen Binnenmarkt sowie die entsprechende Verhandlungsaufnahme mit dem Rat und der Kommission aus.[2] Dies bedeutet, dass der Entwurf auf der Plenartagung im September 2018 überarbeitet und diskutiert werden wird. Zentrale Regelung des Richtlinienentwurfes ist Art. 13[3], der den Einsatz von Inhaltserkennungstechniken durch Plattformbetreibende vorsieht. Diese Verpflichtung zum Einsatz sog. Upload-Filter hat bereits zu heftigen Protesten geführt (u.a. verschiedene Online-Petitionen[4]). Der Beitrag soll einen Überblick über den Stand des Gesetzgebungsverfahrens liefern. Insbesondere soll dabei der umstrittene Art. 13 und die damit einhergehende „Gefahr für das freie Netz“[5] untersucht werden.

Hintergrund des Gesetzgebungsverfahrens

Schon seit einigen Jahren wird eine Reform des EU-Urheberrechts diskutiert. Hintergrund dieser Reformpläne ist die Weiterentwicklung der Digitaltechniken sowie die Anpassung des Urheberrechtes an das Internetzeitalter.[6] Für das Urheberrecht von erheblicher Bedeutung ist die damit einhergehende Veränderung der Verwertung von Werken. Insbesondere haben sich neue Formen der Nutzung von Daten und damit auch neue Geschäftsmodelle und Akteure etabliert: Gerade die Nutzung von (Online-)Plattformen und Streamingdiensten hat in den letzten zwei Jahrzehnten stark zugenommen. Dabei treten Plattformbetreibende nicht nur als Verwertende und Werkvermittelnde auf, sondern ermöglichen auch privaten Nutzer/innen, Werke zu vermitteln. Gerade diese Nutzer/innen, die fremde Werke der Öffentlichkeit zugänglich machen können, konkurrieren über Online-Plattformen mit den Urheber/innen.[7] Zudem hat die Globalisierung die Nutzung digitaler Inhalte beeinflusst, sodass auch in diesem Umfeld das grenzüberschreitende Moment immer mehr Bedeutung erlangt hat – was naturgemäß den Zugang zu urheberrechtlich geschützten Inhalten erleichtert hat. Trotz der extremen Veränderungen der digitalen Welt in den vergangenen Jahren liegt die letzte Reform des (digitalen) EU-Urheberrechtes schon 17 Jahre zurück.[8] Das Internet und damit auch die digitale Nutzung urheberrechtlich geschützter Werke hat sich seit 2001 massiv verändert, sodass die bestehenden Regelungen schlichtweg nicht mehr zeitgemäß sind – aber vor allem den Rechtsinhaber/innen nicht ausreichend Schutz bieten.

Der Richtlinienentwurf

Vor diesem Hintergrund verabschiedete die Kommission eine Strategie[9], welche u.a. die Harmonisierung der nationalen Urheberrechtssysteme und die Marktöffnung zu urheberrechtlich geschützten Daten für EU-Nutzer/innen anstrebte. Der Richtlinienentwurf ist eine Maßnahme zur Modernisierung des EU-Urheberrechts. Konkret verfolgt der Richtlinienentwurf folgende Ziele[10]:

  • Der Fragmentierung des Binnenmarktes entgegenzuwirken
  • Schließung der sog. „value gap“[11] (faire Bezahlung für Künstler/innen und Journalist/innen)
  • Stärkung der Verhandlungsrechte von Autor/innen und Interpret/innen (insb. gegenüber Online-Plattformen)
  • Berücksichtigung der Meinungsfreiheit

Diese Ziele der Richtlinie sollen zum einen über ein Leistungsschutzrecht für Presseverleger[12] gem. Art. 11 des RL-Entwurfes erreicht werden. In Deutschland ist bereits seit 2013 ein Leistungsschutzrecht für Presseverleger in Kraft (§§ 87f-h UrhG), dessen praktische Wirksamkeit jedoch heftig umstritten ist.[13] Zum anderen sollen die Ziele insbesondere über den zentralen Art. 13 erreicht werden, der Gegenstand der folgenden Darstellung ist.

Art. 13: Upload-Filter-Verpflichtung

Art. 13 sieht für „Diensteanbieter der Informationsgesellschaft, die große Mengen der von ihren Nutzern hochgeladenen Werke und sonstigen Schutzgegenstände in Absprache mit den Rechteinhabern speichern oder öffentlich zugänglich machen“ Maßnahmen vor, „um zu gewährleisten, dass die mit den Rechteinhabern geschlossenen Vereinbarungen, die die Nutzung ihrer Werke oder sonstigen Schutzgegenstände regeln, oder die die Zugänglichkeit der von den Rechteinhabern genannten Werke oder Schutzgegenstände über ihre Dienste untersagen, eingehalten werden. Diese Maßnahmen wie beispielsweise wirksame Inhaltserkennungstechniken müssen geeignet und angemessen sein.“

Nach Art. 13 sind Plattformbetreibende dazu verpflichtet, Maßnahmen zu ergreifen, um Verletzungen von Urheberrechten durch sog. User Generated Content (fremde Werke, die von den Plattformnutzer/innen selbst hochgeladen werden[14]) zu verhindern. Als Maßnahme kommen insbesondere wirksame Inhaltserkennungstechniken in Betracht – Art. 13 sieht gerade kein bloßes „Notice-and-take-down“-Verfahren vor. Vielmehr müssen die Plattformbetreibenden, um den Anforderungen von Art. 13 gerecht werden zu können und eine wirksame Kontrolle zu gewährleisten, Inhalte vorab prüfen – also vor Veröffentlichung der Werke auf der jeweiligen Plattform. Die individuelle Überprüfung aller hochgeladenen Werke auf Plattformen wie z.B. Facebook oder YouTube ist – aufgrund der schieren Menge – nur mittels algorithmisch arbeitender Software möglich. Damit reduziert sich der Spielraum bei der Wahl der Maßnahme, der den Plattformbetreibenden gem. Art. 13 eingeräumt wird, faktisch auf den Einsatz von sog. Upload-Filtern.[15]

Doch was genau macht Upload-Filter eigentlich aus?

  • Upload Filter werden verdachtsunabhängig angewandt (bereits bei Hochladen von Dateien, es erfolgt keine vorübergehende Veröffentlichung wie z.B. bei Re-Upload-Filtern oder dem „Notice-and-take-down“-Verfahren, die bereits veröffentlichte Werke auf Urheberrechtsverletzungen prüfen)
  • Sie sind unterschiedslos anwendbar, sodass alle Nutzer, die Werke hochladen, betroffen sind
  • Sie arbeiten mit Algorithmen, sodass eine gewisse Fehleranfälligkeit besteht und die Blockierung legaler Uploads nicht ausgeschlossen werden kann – und erfahrungsgemäß auch vorkommt

Eine solche Filterung beim Hochladen, aber vor der Veröffentlichung, ist nicht gänzlich neu – beispielsweise verwendet YouTube seit einigen Jahren das sog. Content-ID Verfahren[16]. Dabei gleicht die Software hochgeladene Dateien mit sog. Referenzdateien ab.[17] Allerdings nutzt YouTube dieses Verfahren auf freiwilliger Basis – eine Pflicht seitens des Gesetzgebers, solche Maßnahmen vorzunehmen, bestand bisher nicht.

Praktikabilitätsprobleme

Upload-Filter als solche lassen sich – unabhängig von betroffenen Rechten – schon auf Ebene der Praktikabilität kritisieren: Schließlich ist nur die Identifikation solcher Werke möglich, die codiert (oder anderweitig identifizierbar) sind und deren Codes in den Datenbanken der Plattformbetreibenden hinterlegt sind. Dies gilt sowohl für das bekannte Content-ID-Verfahren als auch für Upload-Filter. Damit obliegt es dem/der Urheber/in, der/die den Upload bestimmter Werke verhindern will, jeder Plattform entsprechende Codes zur Identifikation zur Verfügung zu stellen. Es obliegt damit dem/der Urheber/in, den Plattformbetreibenden einen solchen Code zur Verfügung zu stellen (und herzustellen, was sich z.B. bei Gemälden als schwierig herausstellen könnte).[18] Dies zeigt auf, dass Upload-Filter nicht unbedingt der beste Weg zur Erreichung der Ziele des Richtlinienentwurfes (insb. Stärkung der Urheber/innen) sind: Die Upload-Filter-Verpflichtung, welche die Plattformbetreibenden in die Verantwortung nehmen soll, ist auch für die Urheber/innen mit einem nicht unerheblichen Aufwand verbunden. Andererseits ist dieser Aufwand nicht mit den Schwierigkeiten vergleichbar, die ein „Notice-and-take-down“-Verfahren für die Urheber/innen mit sich bringt. Letztlich existiert schlichtweg kein Verfahren, das ohne Aufwand für die Urheber/innen auskommt.[19] Hinzu kommt, dass Urheber/innen gezwungen sein könnten, die Vermittlung geschützter Werke durch die Plattformbetreibenden (und die Nutzer/innen) zu dulden, um Konflikte mit Internet-Giganten wie Google zu vermeiden.

Kollidierende Grundrechte

Eine EU-Richtlinie ist ein Unionsrechtsakt – der Richtlinienentwurf sollte also an der Grundrechtecharta der EU (GRCh) gemessen werden. Zunächst kollidiert eine Upload-Filter-Verpflichtung mit der unternehmerischen Freiheit der Plattformbetreibenden. Die unternehmerische Freiheit gem. Art. 16 GRCh schützt neben der Aufnahme und Beendigung auch die Durchführung einer unternehmerischen Tätigkeit.[20] Die Verpflichtung der Plattformbetreibenden, einen Upload-Filter zu nutzen, beschränkt die Wahl, wie die unternehmerische Tätigkeit durchzuführen ist. Darüber hinaus drohen Kollisionen mit Rechten Dritter: Die gem. Art. 11 Abs. 1 GRCh geschützte Meinungsfreiheit sowie die Informationsfreiheit könnten in erheblichem Maße betroffen sein. Die Meinungsfreiheit schützt das Äußern der Meinung sowie die Weitergabe von Informationen[21]; die Informationsfreiheit schützt wiederum den Empfang von Informationen und Meinungen – insbesondere über das Internet.[22] Das Hochladen von User Generated Content wird regelmäßig als Weitergabe von Informationen einzuordnen und zudem häufig mit einer Meinungsäußerung verbunden sein. Andere Nutzer/innen werden bei blockierten Uploads am Empfang von Informationen gehindert. Demnach ist davon auszugehen, dass die Verpflichtung, einen Upload-Filter einzusetzen, in diese Schutzbereiche eingreift. Fraglich wäre dies hingegen bei der freiwilligen Verwendung eines Filters: Sofern keine Verpflichtung seitens der Gesetzgeber besteht, stellt sich die vieldiskutierte Frage, inwieweit Grundrechte Drittwirkung entfalten. Jedenfalls aber greift die Upload-Filter-Verpflichtung in die Meinungsfreiheit sowie die Informationsfreiheit ein. Darüber hinaus sind Eingriffe in den Schutz personenbezogener Daten gem. Art. 8 GRCh denkbar: Auch die fehlerhafte Blockierung legaler Uploads zieht die Speicherung von Daten der Hochladenden nach sich; Profildaten und IP-Adresse sind personenbezogene Daten, da sie die Identifikation des Nutzers ermöglichen.[23]

Rechtsprechung des EuGH

Der EuGH hat bereits in den Vorabentscheidungsverfahren Scarlet Extended SA gegen SABAM[24] sowie SABAM gegen Netlog NV[25] entschieden, dass die Verpflichtung zur präventiven Filterung von Daten unzulässig ist.

In Scarlet Extended SA gegen SABAM sprach sich der EuGH gegen die Verpflichtung aus, ein „System der Filterung aller […] [die] Dienste durchlaufenden elektronischen Kommunikationen […], das unterschiedslos auf alle seine Kunden anwendbar ist, präventiv, allein auf eigene Kosten und zeitlich unbegrenzt einzurichten, mit dem sich im Netz dieses Anbieters der Austausch von Dateien ermitteln lässt, die ein musikalisches, filmisches oder audiovisuelles Werk enthalten, an dem der Antragsteller Rechte des geistigen Eigentums zu haben behauptet, um die Übertragung von Dateien, deren Austausch gegen das Urheberrecht verstößt, zu blockieren“.[26]

In SABAM gegen Netlog NV begründet der EuGH die Rechtswidrigkeit einer Anordnung, ein „System der Filterung der von den Nutzern seiner Dienste auf seinen Servern gespeicherten Informationen, das unterschiedslos auf alle diese Nutzer anwendbar ist, präventiv, allein auf eigene Kosten und zeitlich unbegrenzt einzurichten, mit dem sich Dateien ermitteln lassen, die musikalische, filmische oder audiovisuelle Werke enthalten, an denen der Antragsteller Rechte des geistigen Eigentums zu haben behauptet, um zu verhindern, dass die genannten Werke unter Verstoß gegen das Urheberrecht der Öffentlichkeit zur Verfügung gestellt werden“[27], mit (potentiellen) Verletzungen der unternehmerischen Freiheit, mit dem Recht auf den Schutz personenbezogener Daten und mit der Informationsfreiheit.[28]

Diese beiden Vorabentscheidungsverfahren lassen fünf Kriterien[29] erkennen, die der EuGH nutzt, um eine rechtswidrige Filter-Verpflichtung zu umschreiben:

  • Von den Nutzer/innen auf den Servern der Plattformbetreibenden gespeicherte Informationen (User Generated/Uploaded Content)
  • Unterschiedslose Anwendbarkeit auf alle Nutzer/innen
  • Präventiv (vor der Veröffentlichung von Werken)
  • Auf Kosten der Plattformbetreibenden
  • Zeitlich unbegrenzt

Ergebnis und Ausblick

Stellt Art. 13 also eine „Gefahr für das freie Netz“ dar? Die massiven Grundrechtseingriffe kombiniert mit der Gefahr eines „Overblocking“[30] sprechen eindeutig dafür: Der Einsatz algorithmisch arbeitender Filter-Software bringt zumeist auch die fehlerhafte Blockierung rechtmäßiger Uploads mit sich. Dementsprechend werden Upload-Filter auch als „Zensurmaschine“ kritisiert.[31] Somit ließe sich argumentieren, dass der zu verabschiedende nationale Rechtsakt, welcher der Umsetzung der Richtlinie dient, gegen das Zensurverbot aus Art. 5 Abs. 1 S. 3 GG verstoßen würde. Dies erscheint jedoch fernliegend, da Upload-Filter privater Kontrolle dienen, wohingegen das Zensurverbot staatliche Kontrolle verbietet.[32] Anders sieht es mit der Gefahr für die Grundrechte der Nutzer/innen und Plattformbetreibenden aus: Insbesondere ein „Overblocking“ würde massive Grundrechtseingriffe bewirken. Selbst wenn man davon ausginge, dass Plattformbetreibende die Kosten für den Upload-Filter nicht selbst zu tragen hätten und sich dieser Eingriff so ggf. rechtfertigen ließe, bestünden nach wie vor erhebliche Eingriffe in die Grundrechte der Nutzer/innen. Demnach ist die Upload-Filter-Verpflichtung rechtswidrig; zumal die Merkmale eines Upload-Filters denen gleichen, die der EuGH verwendete, um rechtswidrige Filter-Software zu umschreiben. Dies gilt zumindest bis die Upload-Filter-Software so fortentwickelt ist, dass die fehlerhafte Blockierung legaler Uploads gänzlich ausgeschlossen ist.

Doch was für Alternativen bestehen? Ausreichender Schutz von Urheber/innen ist jedenfalls nicht über ein bloßes „Notice-and-take-down“-Verfahren zu erreichen, da es dem/der Urheber/in die faktische Beweislast sowie den Aufwand, einen illegalen Upload aufzuspüren, auferlegt.[33] Sollte der Richtlinienentwurf in dieser Form angenommen werden, sollte zumindest eine weitere Ausnahme vom Schutz der Urheberrechte nach dem Vorbild der US-Amerikanischen Fair-Use-Doktrin (wonach das eigentlich illegale Hochladen von Werken ausnahmsweise legal ist, sofern dies der öffentlichen Bildung dient, vgl. § 107 Copyright Act [USA]) eingeführt werden, um die Rechte der Nutzer/innen weniger zu belasten. Eine solche Ausnahmeregelung würde allerdings nur einen Teil des Problems lösen, da dennoch eine umfassende Filterung stattfände.

Zuletzt ist fraglich, wie eine Upload-Filter-Verpflichtung in Deutschland umgesetzt würde. Im Koalitionsvertrag zwischen CDU, CSU und SPD (19. Legislaturperiode) heißt es, dass „[e]ine Verpflichtung von Plattformen zum Einsatz von Upload-Filtern, um von Nutzern hochgeladene Inhalte nach urheberrechtsverletzenden Inhalten zu „filtern“, […] als unverhältnismäßig ab[gelehnt wird]“.[34]

Auf der Plenartagung des Europäischen Parlaments im September 2018 wird sich die zukünftige Entwicklung des RLichtlinienentwurfes entscheiden. Fest steht jedenfalls, dass eine Urheberrechtsreform nach diesem Entwurf das Internet und seine Nutzung nachhaltig verändern würde.

[1] Der Entwurf ist abrufbar unter: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:52016PC0593.

[2] Pressemitteilung des EP vom 20.06.2018, Urheberrecht: Europaabgeordnete aktualisieren Regeln für das digitale Zeitalter, http://www.europarl.europa.eu/news/de/press-room/20180618IPR06024/urheberrecht-europaabgeordnete-aktualisieren-regeln-fur-das-digitale-zeitalter.

[3] Redaktion MMR-Aktuell, vzbv: Keine Upload-Filter durch die Hintertür, MMR-Aktuell 2018, 405308.

[4] Beispielhaft: https://savetheinternet.info/.

[5] Hurtz, Gefahr für das freie Netz, Süddeutsche Zeitung, abrufbar unter: http://www.sueddeutsche.de/politik/urheberrecht-gefahr-fuer-das-freie-netz-1.4023729.

[6] Vgl. zum Hintergrund: Gründe und Ziele des Vorschlags, RL-Entwurf (Fn. 1).

[7] Pfennig, ZUM 2018, 252.

[8] Pfennig, ZUM 2018, 252.

[9] S. Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Strategie für einen digitalen Binnenmarkt für Europa, abrufbar unter: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A52015DC0192.

[10] Vgl. Pressemitteilung des EP vom 20.06.2018, Urheberrecht: Europaabgeordnete aktualisieren Regeln für das digitale Zeitalter; Statement des Berichterstatters Axel Voss vom 20.06.2018, abrufbar unter https://multimedia.europarl.europa.eu/en/copyright-digital-single-market-vote-voss_I157196-V_v.

[11] Vgl. dazu eine kritische Analyse zum Value Gap: Wimmers/Barudi, GRUR 2017, 327 ff.

[12] Dazu Weiden, GRUR 2018, 493 f.; Hegemann, ZUM 2017, 123 (124 ff.).

[13] Zu der Diskussion um das deutsche Leistungsschutzrecht für Presseverleger: Graef, in: BeckOK Urheberrecht, 20. Edition Stand 20.04.2018, § 87f UrhG Rn. 25 ff.

[14] Vgl. zum Begriff: Reinemann/Remmertz, ZUM 2012, 216.

[15] Im Ergebnis so auch: Heldt, Zensur durch Upload-Filter: Zur umstrittenen EU-Reform des Urheberrechts, Verfassungsblog vom 25.06.2018, https://verfassungsblog.de/zensur-durch-upload-filter-zur-umstrittenen-eu-reform-des-urheberrechts/.

[16] Siehe: https://support.google.com/youtube/answer/2797370?hl=de.

[17] Ausführlich dazu Conrad, ZUM 2017, 289 (295 ff.).

[18] Vgl. Pfennig, ZUM 2018, 252 (255 f.).

[19] Allerdings ist z.B. das Content-ID System in der Lage, selbst Referenzdateien zu bestimmen, sofern diese in den Datenbanken der Plattformbetreibenden vorhanden sind; vgl. Conrad, ZUM 2017, 289 (296).

[20] Jarass, Charta der Grundrechte der EU, 3. Auflage 2016, Art. 16 Rn. 9.

[21] Jarass, Charta der Grundrechte der EU, 3. Auflage 2016, Art. 11 Rn. 13.

[22] Jarass, Charta der Grundrechte der EU, 3. Auflage 2016, Art. 11 Rn. 15.

[23] EuGH, Urt. v. 24.11.2011, Rs. C-70/10, Rn. 51; vgl. zudem Gersdorf, in: BeckOK Informations- und Medienrecht, 20. Edition 01.05.2017, Art. 8 GRC Rn. 13 ff.

[24] EuGH, Urt. v. 24.11.2011, Rs. C-70/10.

[25] EuGH, Urt. v. 16.02.2012, Rs. C-360/10.

[26] EuGH, Urt. v. 24.11.2011, Rs. C-70/10, Rn. 55.

[27] EuGH, Urt. v. 16.02.2012, Rs. C-360/10, Rn. 53.

[28] EuGH, Urt. v. 16.02.2012, Rs. C-360/10, Rn. 50 f.

[29] Nach EuGH, Urt. v. 16.02.2012, Rs. C-360/10, Rn. 50, 53; Urt. v. 24.11.2011, Rs. C-70/10, Rn. 55.

[30] Redaktion MMR-Aktuell, EU-Mitgliedstaaten mehrheitlich für Upload-Filter und Leistungsschutzrecht, MMR-Aktuell 2018, 406238.

[31] Redaktion MMR-Aktuell, EU-Mitgliedstaaten mehrheitlich für Upload-Filter und Leistungsschutzrecht, MMR-Aktuell 2018, 406238.

[32] Grabenwarter, in: Maunz/Dürig, GG, 82. EL Januar 2018, Art. 5 Rn. 115; a.A. und für eine zeitgemäße Auslegung des Zensurbegriffes: Heldt, Zensur durch Upload-Filter: Zur umstrittenen EU-Reform des Urheberrechts, Verfassungsblog vom 25.06.2018, abrufbar unter: https://verfassungsblog.de/zensur-durch-upload-filter-zur-umstrittenen-eu-reform-des-urheberrechts/.

[33] Pfennig, ZUM 2018, 252 (255).

[34] Koalitionsvertrag zwischen CDU, CSU und SPD, 19. Legislaturperiode, Zeile 2212 ff.