Print Friendly, PDF & Email

Spätestens seit dem Bekanntwerden des „Clearview-Skandals“ ist das Thema der biometrischen Gesichtserkennung der Öffentlichkeit bekannt.
Die Bundespolizei erprobte den Einsatz 2017/18 an einem Berliner Bahnhof, die Hamburger Polizei nutzte vergleichbare Technologien zur Strafverfolgung anlässlich G 20.

von Ann Kathrin Höhn und Torben Wassermann

Spätestens als Ende Januar 2020 bekannt wurde, dass die US-amerikanische Firma Clearview AI eine Gesichtserkennungssoftware an amerikanische Strafverfolgungsbehörden verkauft, die auf eine gigantische Datenbank mit Fotos von Facebook und anderen zugreift,[1] ist die automatisierte Gesichtserkennung in den gesellschaftlichen Fokus geraten. In Deutschland gibt es eine große gesellschaftliche Mehrheit, die das Geschäftsmodell von Clearview als unzulässig erachtet.[2] Ungeachtet dessen wächst schon seit einigen Jahren bei den deutschen Polizeibehörden das Interesse an automatisierter Gesichtserkennung. Die Bundespolizei untersuchte die Technik in den Jahren 2017/18 in einem Pilotprojekt am Berliner Bahnhof Südkreuz.[3] Währenddessen bemühen sich bereits erste Innenminister, in ihren Sicherheits- und Ordnungsgesetzen Rechtsgrundlagen für den Einsatz der automatisierten Gesichtserkennung zu schaffen. In § 59 I des Polizeivollzugsdienstgesetzes Sachsen[4] findet sich die bisher einzige gefahrenabwehrrechtliche Grundlage für den automatisieren Gesichtsabgleich. Ein gleiches Vorhaben scheiterte in Bayern an rechtlichen Bedenken. [5] Auch das Bundesinnenministerium sah im Referentenentwurf zum neuen Bundespolizeigesetz den Einsatz dieser Technik an den größten deutschen Verkehrsknotenpunkten vor.[6] Auf großen politischen Druck hin verzichtete das Bundesinnministerium Ende Januar 2020 dann im weiteren Verlauf hierauf.[7] Diese Entwicklungen zeigen, dass der Einsatz der automatisieren Gesichtserkennung nicht mehr nur kühne Vorstellung einzelner Beamter ist und führen unweigerlich zu der Frage:

Wäre automatisierte Gesichtserkennung im öffentlichen Raum zulässig?

I. Begriff und Technik der automatisierten Gesichtserkennung

Für die rechtliche Betrachtung der Zulässigkeit automatisierter Gesichtserkennung bedarf es zuallererst der Bestimmung des Begriffes der Gesichtserkennung und einer Betrachtung des aktuellen Technikstandes.

Die Technik der automatisierten Gesichtserkennung ist dabei von der einfachen Videoüberwachung abzugrenzen, bei der eine Szene nur videotechnisch übertragen oder aufgezeichnet wird. 

Mit dem Begriff „biometrische Gesichtserkennung“ ist die automatisierte Gesichtserkennung gemeint, wenn aus vorhandenen Bildern die Gesichter identifiziert werden, jedoch kein automatischer Datenabgleich mit Referenzdatenbänken stattfindet.

Der Begriff der intelligenten Videoüberwachung beschreibt den Einsatz von Videotechnik, bei dem in Echtzeit die Gesichter erkannt werden und mittels Algorithmen mit bekannten Mustern (Verhalten/Gesichtern) abgeglichen werden, wie dem Fahndungsbestand der Polizei. Dabei handelt es sich auch um spezielle Ausprägung der automatisierten Gesichtserkennung.

Der Prozess der softwaregestützten Gesichtserkennung teilt sich in drei Schritte auf:

Zuerst muss durch die Software ein Gesicht identifiziert werden (face detection), um im nächsten Schritt die Merkmale des Gesichtes zu extrahieren (face extraction). Diese Daten müssen dann gespeichert und verglichen werden (face recognition).

Ein Computer kann ein Gesicht nicht wie ein Mensch visuell wahrnehmen. Die Gesichtserkennungssoftware muss zunächst erkennen, ob es sich um ein Gesicht handelt (face detection). Hierzu werden Farbwerte, Kontraste und Abstände, vor allem der Augenpartie, untersucht. Dabei wird nicht nur auf geometrische Figuren gesetzt, sondern es werden auch Algorithmen verwendet, die neuronale Strukturen (menschliche Gedächnisstrukturen) zur Gesichtserkennung nachbilden.[8] Sofern die Software ein Gesicht auf einem Bild erkannt hat, werden die Abstände zwischen den einzelnen markanten Punkten des Gesichts vermessen, wie der Abstand zwischen Mund und Nase. Diese Abstände werde in einem Datensatz, dem sog. Template gespeichert (face extraction).

Soll ein Gesicht mit einem anderen Bild oder einer Datenbank abgeglichen werden, werden die aus dem Bild abstrahierten Daten damit verglichen (face recognition). Als Treffer gilt, wenn die Wahrscheinlichkeit der Übereinstimmung zwischen zwei Templates einen vorher festgelegten Wert überschreitet.[9] Da es bei der aktuellen Technik zu einem Abgleich der verschiedenen Abstände kommt, kann es wegen biometrischer „Scheinübereinstimmung“ (die Abstände der Gesichter stimmen überein) zu Falschidentifizierungen kommen, bei denen bspw. bereits das Geschlecht der fälschlich identifizierten Person nicht mit der gesuchten Person übereinstimmt.[10]

Auf die Qualität des Templates und die Wahrscheinlichkeit der Wiedererkennung wirken sich insbesondere die Faktoren Beleuchtung, Verdeckung des Gesichts[11], Winkel der Aufnahme und ein abweichender Winkel der Referenzaufnahme[12] aus. Zudem beeinflusst die Vielfalt der Gesichter, mit denen der Algorithmus trainiert wurde,[13] das Identifizierungsergebnis.

Aktuelle Daten über die Treffergenauigkeit von Gesichtserkennungssoftware sind nur in geringem Umfang verfügbar. Die aktuellsten Daten stammen aus dem Pilotprojekt der Bundespolizei in Berlin aus dem Jahre 2017/18. Zwischen den drei getesteten Systemen zeigten sich erhebliche Unterschiede in der Trefferrate sowie in der Falschakzeptanzrate.

Die Trefferrate beschreibt das Verhältnis zwischen den richtig identifizierten Personen und der Gesamtheit aller, in der Datenbank einliegenden und von der Kamera, wegen ihrer Anwesenheit im Detektionsbereich, potenziell identifizierbaren Personen in einem Zeitabschnitt.[14]

Die Falschakzeptanzrate (FAR) beschreibt die Anzahl der Personen, die irrtümlich identifiziert wurden, als Anteil aller, durch die Kamera erkannten Gesichter, die nicht in der Referenzdatenbank gespeichert sind.[15] In dem Versuchsaufbau, bei dem je ein hochauflösendes Bild pro Probanden verfügbar war, wurden von den Systemen zwischen 31,7% und 63,1% Trefferrate erzielt. Die Falschakzeptanzrate lag dabei zwischen 0,12% und 0,25%.[16]

Lagen mehrere, qualitativ jedoch geringwertigere Bilder vor, lag die Trefferwahrscheinlichkeit der Systeme zwischen 31,2% und 82,8%, die FAR betrug 0,0007% und 0,27%. Dabei ist zu beachten, dass das System mit der niedrigsten Falschakzeptanzrate auch das mit der schlechtesten Trefferrate war.[17]

Der Chaos Computer Club bewertet diese Testergebnisse kritisch, da er die Erkennungsrate wegen mangelnder Diversität der Testgruppe als verfälscht ansieht.[18] Zudem stellt er heraus, dass eine Falschakzeptanzrate von 0,X Prozent bei durchschnittlich 90.000 täglichen Nutzern des Bahnhofes eine absolute Falschidentifikation von 100-1000 Personen bedeutet.[19]

II. Rechtliche Zulässigkeit

Die automatisierte Gesichtserkennung müsste auch rechtlich zulässig sein. In der Diskussion um die Gesichtserkennung werden immer wieder der Einsatz zur Gefahrenabwehr und der Einsatz zur Strafverfolgung diskutiert. Diese Einsatzmöglichkeiten gilt es im Folgenden zu betrachten.

1. Gefahrenabwehrrecht

 Zum Zwecke der Gefahrenabwehr soll die automatisierte Gesichtserkennung in der Form von intelligenter Videoüberwachung zum Einsatz kommen und die Fahndung erleichtern.

a. Betroffene Grundrechte

Zu Beginn ist zu klären, welche Grundrechte durch den polizeilichen Einsatz intelligenter Videoüberwachung im öffentlichen Raum betroffen sind. Die Betroffenheit der informationellen Selbstbestimmung, Art. 1 I GG i.V.m. Art. 2 I GG drängt sich auf.[20] Die Rechtsprechung hat die Betroffenheit dieses Grundrechts bereits bei der automatisieren Kennzeichenerkennung bejaht.[21] Darüber hinaus wird für die intelligente Videoüberwachung die Betroffenheit weiterer Grundrechte, vor allem der Menschenwürde (Art. 1 I GG)[22] und des Gleichheitsgrundrechtes (Art. 3 GG) diskutiert.[23] Dies geschieht bezogen auf den Einsatz zur Erkennung „atypischen Verhaltens“ und wird, soweit die intelligente Videoüberwachung nur zur Gesichtserkennung betrachtet wird, als nicht einschlägig erachtet.[24] Es gilt folglich vorliegend den Maßstab des Art. 2 I i.V.m. 1 I GG zu ermitteln und die intelligente Gesichtserkennung daran zu messen.

b. Schutzbereich der informationellen Selbstbestimmung

Das im Volkszählungsurteil[25] durch richterrechtliche Rechtsfortbildung entwickelte Grundrecht räumt dem Bürger die Berechtigung ein, grundsätzlich über die Preisgabe und Verwendung seiner Daten selbst zu entschieden.[26] Es soll die Persönlichkeitsentfaltung schützen und die Wahrnehmung anderer Grundrechte absichern.[27] Daten sind alle Einzelangaben über sachliche oder persönliche Verhältnisse einer bestimmten oder bestimmbaren Person.[28] Der Begriff der personenbezogenen Daten des BDSG/der DSGVO entspricht dem Schutzbereich dieses Grundrechtes. Die informationelle Selbstbestimmung soll vor den Gefährdungen und Verletzungen der Persönlichkeit, die sich aus den Bedingungen moderner Datenverarbeitung ergeben können, schützen.[29] Mögliche Einschüchterungseffekte auf Seiten des Bürgers, die sich aus der hoheitlichen Datenverarbeitung ergeben können, waren Grund für die Schaffung dieses Grundrechtes.[30] Sie sind der Schutzzweck des Grundrechtes.[31] Der Schutzbereich der informationellen Selbstbestimmung erstreckt sich mithin über das „Ob“ und das „Wie“ der staatlichen Datenverarbeitung.

c. Feststellung des Grundrechtseingriffs

Für eine Betroffenheit der informationellen Selbstbestimmung müsste die intelligente Videoüberwachung auch in den Schutzbereich dieses Grundrechtes eingreifen. Als Eingriffshandlungen kommen die Videoaufzeichnung, die Extrahierung des Template und der Abgleich der biometrischen Daten mit dem Fahndungsbestand in Betracht.[32] Es könnte jeder Verarbeitungsschritt einzeln betrachtet werden.[33] Dies wiederspräche jedoch dem tatsächlichen Ablauf und der Konzeption der automatisierten Gesichtserkennung, [34] weshalb diese zusammengefasst als ein Eingriff zu behandeln ist.

Ein Eingriff in die informationelle Selbstbestimmung eines jedes Einzelnen könnte vorliegen, wenn dessen Gesicht automatisch mit dem Fahndungsbestand abgeglichen wird. Unabhängig davon, ob es sich um einen Nichttreffer (Keine Übereinstimmung), Falschtreffer (System meldet Treffer, obwohl keiner vorliegt) oder einen Treffer (tatsächliche Übereinstimmung) handelt.

Das Bundesverfassungsgericht hat in seiner ersten Entscheidung zur Kennzeichenerkennung[35] einen Eingriff im Falle automatisierter Mustererkennung mit Abgleich in den Nicht-Treffer Fällen unter der Bedingung verneint, dass die Daten nach dem Abgleich technisch spurlos, anonym und ohne die Möglichkeit eines Personenbezuges ausgesondert werden.[36] Zur Begründung führt es aus, dass mangels einer Möglichkeit der Kenntnisnahme durch staatliche Stellen keine Gefährdung der informationellen Selbstbestimmung besteht. Diese Entscheidung wird auch in der Literatur mitgetragen, soweit die Auswertung dezentral in der Aufzeichnungsanlage direkt erfolgt, nur die Treffer durch das System angezeigt werden und keine Möglichkeit zur Datenableitung besteht.[37] Als Vergleich wird bemüht, dass dieser Abgleich mit sofortiger Aussonderung dem flüchtigen Blick einer Polizeistreife gleiche, die nur das Offensichtliche wahrnehme und daran kein Handeln knüpfe.[38]

Dennoch wird durch die Aufnahme des Gesichtes, auch bei völlig automatisierten Abgleichen – die einem Beamten nicht zugänglich sind – dem Einzelnen die Verfügungsbefugnis über die erhobenen Daten entzogen.[39] Der Einzelne kann nicht mehr entscheiden, ob er seine Daten preisgeben möchte. Insoweit besteht eine Gefährdung der informationellen Selbstbestimmung auch in Nichttrefferfällen.

In der zweiten Entscheidung zur automatischen Kennzeichenkontrolle bejaht das Bundesverfassungsgericht einen Eingriff, wenn die Datenerhebung zweckgerichtet erfolgt und sich das behördliche Interesse derart verdichtet hat, dass ein Betroffensein in einer einen Grundrechtseingriff auslösenden Qualität zu bejahen ist. So verhält es sich auch bei den Nichttrefferfällen.[40] Bei der Kennzeichenkontrolle wird die Weiterfahrt eines jeden unter den Vorbehalt des Ausbleibens eines Fahndungseintrages gestellt wird. Nach Auffassung des Bundesverfassungsgerichtes wird das Regel-Ausnahmeverhältnis durch den Einsatz der Technik umgekehrt. Nicht mehr die Polizei müsse darlegen, dass der einzelne unrechtmäßig handele, sondern alle müssten ihre Rechtschaffenheit belegen.[41]

Neben der Argumentation des BVerfG gibt es weitere Aspekte, die bei der Bewertung der automatisierten Gesichtserkennung zu berücksichtigen sind. So wird durch die biometrische Gesichtserkennung nicht nur erfasst, was dem menschlichen Auge zugänglich ist. Für den Abgleich bedarf es der Extrahierung der biometrischen Daten des Gesichts (Template), was ein „Mehr“ zu der reinen Inaugenscheinnahme darstellt.[42] Aktuelle Forschung zeigen auch bei Nichttreffern einen Einschüchterungseffekt infolge des Einsatzes dieser Technik.[43] Zudem ist das Gesicht, im Vergleich zum Kennzeichen ein direkteres Identifikationsmerkmal, welches nicht enger mit der Person des Einzelnen verknüpft sein könnte.[44] Im Gegensatz zu einem KFZ-Kennzeichen, ist es nicht möglich, das Gesicht zu wechseln.

Bei der biometrischen Gesichtserkennung ist daher die aktuelle Rechtsprechung des BVerfG zur automatisierten Kennzeichenkontrolle zu übertragen und in der Gesichtserkennung in jedem Fall ein Eingriff in die informationelle Selbstbestimmung zu sehen. Der Staat erhebt von jedem, der durch den Aufzeichnungsbereich der Kamera läuft, Daten. Ob und wie die Daten verwendet werden ist für die Feststellung eines Eingriffs unbeachtlich. Dem Hinweis, die Kameraaufnahme sei wie das „Gesehen werden durch einen Polizisten“ – was keinen Eingriff darstelle, kann nur auf den ersten Blick zugestimmt werden. Während ein Polizist auch in Gedanken ist und nicht dauerhaft alle Personen um sich herum beobachtet und nicht ständig eine Fahndungsüberprüfung durchführen will, hat die intelligente Videoüberwachung genau diese Qualität. Der Prozess der intelligenten Videoüberwachung muss folglich eher mit dem Beginn einer Identitätsfeststellung verglichen werden, bei der die Daten des Betroffenen durch die Behörden mit dem Ziel der Überprüfung erfasst werden. Der Eingriffscharakter einer Identitätsfeststellung ist wohl unbestritten.

d. Eingriff ja, aber keine Verletzung?

Die Erhebung biometrischer Daten und deren sofortiger Abgleich im Rahmen der intelligenten Videoüberwachung könnten gerechtfertigt sein. In die informationelle Selbstbestimmung, als vom BVerfG entwickeltes Grundrecht, kann nur aufgrund eines formellen Gesetzes eingriffen werden, welches gesteigerten Anforderungen an die Bestimmtheit und Normenklarheit unterliegt[45] und verhältnismäßig sein muss.

aa. Vorbehalt des Gesetzes

Dem Vorbehalt des Gesetzes könnte durch die Ermächtigung zur Videoüberwachung in den Sicherheits- und Ordnungsgesetzen genüge getan sein. In Hamburg ist die Videoüberwachung und – aufzeichnung zur Gefahrenabwehr in § 18 III PolDVG geregelt. Der Wortlaut des § 18 III steht dem Einsatz nicht entgegen, so spricht das Gesetz von „Bildaufzeichnungen von Personen verarbeiten“. Das OVG Hamburg hat zu der wortgleichen Vorgängervorschrift jedoch festgehalten, dass der Einsatz automatischer Bildauswertung hiervon nicht erfasst ist.[46]

Dem Rückgriff auf die Formulierung des § 18 PolDVG entgegengehalten werden, dass dem Gesetzgeber die Möglichkeiten intelligenter Videoüberwachung unbekannt war und der Gesetzgeber mit „Videoaufzeichnung“ dies nicht meinen wollte.[47] Das PolDVG wurde Ende 2019 umfassend überarbeitet, die Technik war zu dieser Zeit allgemein bekannt. Zugleich ist die Technik politisch sehr umstritten, so dass der Einsatz ausdrücklich zu regeln gewesen wäre, wenn der Einsatz beabsichtigt worden wäre.[48]

 Gegen einen Einsatz intelligenter Videoüberwachung spricht die Systematik. Für die automatisierte Kennzeichenerfassung ist in § 19 PolDVG eine eigene und detaillierte Ermächtigungsgrundlage geschaffen worden. Daraus kann abgeleitet werden, dass der automatisierte Abgleich von Daten nicht von der einfachen Beobachtung und Aufzeichnung durch Videoüberwachung erfasst sein kann. Dafür spricht auch, dass § 18 PolDVG von „Beobachten“ spricht und der Einsatz von Software zur Identifizierung von Personen ein „Mehr“ dazu darstellt,[49] welches nach allgemeinem Wortverständnis nicht unter Beobachten verstanden wird. Es wird nicht das „wie“ der Aufnahme verbessert oder verändert, sondern ein neues „was“ der Datenverwendung ergänzt.

Der Sinn und Zweck des Gefahrenabwehrrechts, die effektiven Gefahrenabwehr, spräche für den Einsatz, weil Personen schneller identifiziert werden können. Eine Verarbeitung der Daten vieler ohne konkreten Anknüpfungspunkt, ist der Systematik des Gefahrenabwehrrechts jedoch grds. fremd und somit regelungsbedürftig. Aus der allgemeinen Systematik des Gefahrenabwehrrechts und der ausdrücklichen Regelung der automatisierten Kennzeichenerfassung, folgt, dass die intelligente Videoüberwachung einer eigenen Ermächtigungsgrundlage bedarf. Dafür spricht auch die historische Auslegung. Dem Wortlaut lassen sich Ansätze für und gegen die Zulässigkeit entnehmen, mit dem OVG steht jedoch auch dieser dem Einsatz intelligenter Videoüberwachung entgegen. Mithin ist für diese eine eigene Ermächtigungsgrundlage erforderlich.

bb. Verfassungsrechtliche Anforderungen an eine Rechtfertigung

Ein zum Einsatz ermächtigendes Gesetz muss im Sinne des Bestimmtheitsgebotes konkret regeln, zu welchem Anlass und in welchem Umfang in das Grundrecht auf informationelle Selbstbestimmung eingegriffen wird. Dies umfasst den Anlass und zu welchem Zweck der Eingriff erfolgt und wie die Daten verwendet werden.[50] Den vom BVerfG immer wieder herausgearbeiteten Einschüchterungseffekten,[51] die sich aus der Unklarheit über die Datenverarbeitung ergeben, können nur mit hinreichend bestimmten Normen begegnet werden.

Es ist daraus abzuleiten, dass dem Durchschnittsbürger ohne weiteres klar sein muss, ob, wie und warum seine Daten biometrisch verarbeitet werden. D.h., die Ermächtigung muss den Einsatz der Gesichtserkennung ausdrücklich zulassen und den Umfang des Abgleichs bestimmen und die weitere Verwendung der erhobenen Daten regeln.

Darüber hinaus müsste der Einsatz der intelligenten Videoüberwachung auch verhältnismäßig sein, d.h. ein legitimes Ziel verfolgen, geeignet und erforderlich, sowie angemessen sein.

Ziel des Polizei- bzw. Gefahrenabwehrrechtes ist es, Gefahren und Störungen für die öffentliche Sicherheit abzuwehren[52]. Die Bundespolizei spricht von der Gesichtserkennung als einem geeigneten Fahndungshilfsmittel.[53] Fahndung wird überwiegend aus Gründen der Strafverfolgung betrieben.[54] Ein kleinerer Teil der Fahndung hat einen unmittelbaren Bezug zur Gefahrenabwehr. So die Suche nach Vermissten oder Personen, die zum Zwecke der Strafvereitelung zur polizeilichen Beobachtung oder Festnahme ausgeschrieben sind.[55] Mangels Schwerpunkt auf der Gefahrenabwehr, könnte es einer polizeirechtlichen Ermächtigungsgrundlage am legitimen Zweck fehlen. Zutreffend verfolgt der Einsatz von Gesichtserkennungssoftware ein polizeirechtlich legitimes Ziel, wenn automatisiert nach polizeilichen Gefährdern an einem Bahnhof gesucht wird.[56] Das BVerfG erkennt auch sog. doppelfunktionale Maßnahmen, d.h. solche die sowohl repressiv als auch präventiv sind, als gefahrenabwehrend an.[57] Im Sinne der effektiven Gefahrenabwehr überzeugt dies, da viele repressive Handlungen auch eine präventive Wirkung innewohnt.

Mithin ist die Unterstützung der polizeilichen Fahndung legitimer Zweck einer gefahrenabwehrrechtlichen Ermächtigungsgrundlage.

Der Prüfbericht der Bundespolizei weist eine Trefferquote von mehr als 60% für Gesichtserkennung aus.[58] Somit fördert die intelligente Videoüberwachung die polizeiliche Fahndung, indem sie zu zur Zweckerfüllung beiträgt und ist somit geeignet.

Der Einsatz der Technik müsste auch erforderlich sein. Dies ist der Fall, wenn das verfolgte Ziel nicht mit einem eingriffsärmeren Mittel, welches staatliche Aufwendungen in ähnlichem Umfang verursacht, gleich wirksam erreicht würde.[59] Einen vergleichbaren Fahndungserfolg würde man nur mit massiven Personenkontrollen erreichen, die einerseits den nicht gesuchten Bürger zeitlich in nicht geringem Umfang binden würden und auch eine sehr hohe Zahl von Polizeibeamten erfordern würde, an der es fehlt. [60] Die Erforderlichkeit kann somit bejaht werden.

Schlussendlich gilt es die Angemessenheit der Maßnahme festzustellen. Angemessen ist, was in der direkten Abwägung zwischen der Intensivität des Eingriffes und der Bedeutung des geschützten Rechtsgutes und des Nutzens für dieses ausgeglichen ist oder wo der Nutzen den Eingriff überwiegt.[61] Dazu ist zuerst die Intensität des Eingriffes festzustellen. Diese richtet sich nach der Schwere und Breite des Eingriffes. Zur Bestimmung kann die Persönlichkeitsrelevanz der Daten, der Intensität des zurechenbaren Anlasses für die Informationserhebung der Zweck der Datenerhebung und die Häufigkeit des Betroffenseins berücksichtigt sowie die Verhinderungs- und Abwehrmöglichkeiten betrachtet werden.

Das Gesicht ist das persönlichste Datum eines Menschen. Es hat eine hohe soziale Bedeutung und kann nicht abgelegt werden.

Der Anlass von intelligenter Videoüberwachung erfasst zu werden, ist sehr gering. Je nach Ausgestaltung, reicht schon der Aufenthalt auf öffentlichen Plätzen. Mithin ist eine anlasslose Betroffenheit anzunehmen. Dies führt zu einer hohe Eingriffsbreite.

Die Zwecke der Datenerhebung könne sich auch intensivierend auswirken, wenn nicht nachvollziehbar ist, mit welchen Datenbeständen die Gesichtserkennung „gefüttert wird“.[62] Es ist denkbar, dass auch Ereignisse vor erheblicher Zeit zu einem Treffer führen könnten. Dies könnte den Gedanken der Resozialisierung durch mögliche gesellschaftliche Stigmatisierung in Folge der Kontrollen gefährden.[63] Nicht zu vergessen ist auch, dass die polizeilichen Datenbanken teils schlecht gepflegt sind[64]. Neben den technisch begründeten Falsch-Identifizierungen, könnte dies auch eine beachtliche Zahl von Falsch-Treffern wegen von fehlerhaftem Daten verursachen. Damit kann eine große Unsicherheit bei der Allgemeinheit hervorgerufen werden, die zu einem Rückzug des Einzelnen ins Private führen kann.

Die Häufigkeit des Erfasstwerdens hängt von der Anzahl der eingesetzten Kameras ab. Sie wäre bereits hoch, wenn, wie vom BMI zeitweilig geplant, [65] an den 100 größten Bahnhöfen derartige Technik eingesetzt würde. Dadurch wird dem Einzelnen de facto die Möglichkeit genommen, ohne Datenabgleich – anonym – zu reisen. Dadurch könnte ein Gefühl des ständigen Überwachtswerdens entstehen, welches das BVerfG bei dem vergleichbaren Grundrecht der Telekommunikationsfreiheit, als einen besonders schweren Eingriff wertete.[66]

Für eine hohe Eingriffsintensität spricht auch, dass Identifizierung ohne Mitwirkung der Betroffenen funktioniert[67] und die biometrische Erkennung sogar bei einfacher Gesichtsverdeckung möglich ist.[68] Der Eingriff ist umso intensiver, wenn nicht auf die Gesichtserkennung aufmerksam gemacht wird, da es dann an einer Rechtsschutzmöglichkeit für die Betroffenen fehlt.[69]

In der Gesamtschau der Kriterien liegt ein sehr intensiver Eingriff vor, der den Kern der informationellen Selbstbestimmung betrifft.

Diese Eingriffsintensität könnte durch technisch-organisatorische Maßnahmen gemildert werden. Es ist aber davon auszugehen, dass es nicht möglich ist, den Datenabgleich direkt in der Kamera durchzuführen. Es dürfte ein zentraler Datenabgleich erforderlich sein, insbesondere wenn die Technik zur für die zur Gefahrenabwehr wichtigen Suche nach akut vermissten Personen oder gefährlichen Personen zum Einsatz kommen soll. Nur so ist ein minutenaktueller Abgleich mit dem Fahndungsbestand vorstellbar. Es besteht dann mangels dezentraler Struktur eine Möglichkeit des Abflusses von biometrischen Daten, denen ein hohes Missbrauchspotenzial zukommt.[70] Diese Missbrauchspotenzial ist bei der Prüfung der Rechtfertigung zu berücksichtigen. Konzepte des privacy by design, wie ein lokaler Datenabgleich in der Kamera,[71] scheiden aus. Ein solches Konzept könnte die intelligente Videoüberwachung gar zu einem, gegenüber normaler Polizeiarbeit bzw. einfacher Videoüberwachung, milderen Mittel machen.[72]

Sollten Nicht-Treffer ohne Kenntnisnahme durch einen Beamten sofort gelöscht werden,[73] kann dies die Eingriffsintensität bei den Nicht-Betroffenen – sie sind polizeirechtlich Nicht-Störer – nur gering mindern. Es werden immer sensible Biometriedaten der Nichtstörer erhoben und verarbeitet. Diese können zwar nicht durch einen Beamten vernommen werden, aber es ist nie auszuschließen, dass es zu einem Datenabfluss kommen könnte.

Sollte die intelligente Videoüberwachung mit der Speicherung der Videoaufnahmen verknüpft oder die Treffer protokolliert werden, erhöht sich die Eingriffsintensität weiter. So ließe sich ein Bewegungsprofil erstellen oder Personen könnten in zurückliegenden Aufnahmen verfolgt (getrackt) werden.[74] Damit dürfte die äußerste Grenze des Zulässigen überschritten werden, weil eine Totalüberwachung – die verfassungswidrig ist[75] – möglich wird.

Der Eingriff durch intelligente Videoüberwachung ist grundsätzlich sehr intensiv und kann bei der Kombination von mit umfangreicher Speicherung sich weiter verstärken.

Fraglich ist, welche Gründe den Einsatz intelligenter Videoüberwachung rechtfertigen könnten.

Der Einsatz intelligenter Videoüberwachung könnte durch eine gesteigerte Effizienz der Gefahrenabwehr zu rechtfertigen sein. Mit geringstem Personalaufwand kann eine hohe Zahl von gesuchten Personen aus einer Menschenmasse identifiziert werden, die zum einen zahlenmäßig nicht anders zu kontrollieren wäre. Zum anderen kann nach einer viel größeren Zahl Verdächtiger gesucht werden, als sich Polizeibeamte merken können. Es ist auch möglich, Personen, die nur bildlich bekannt sind, wiederzufinden und anschließend deren Identität festzustellen.

Dieser Erfolg wird jedoch konterkariert, wenn eine identifizierte Person aufgrund der Reaktionszeit der Polizei nicht mehr angetroffen werden kann und deswegen eine Gefahrenabwehr nicht möglich ist.

Sofern dadurch eine Vielzahl von Personen und hohe Sachwerte auf einem Bahnhof vor einem terroristischen Anschlag geschützt werden oder entflohene Gewalttäter identifiziert werden, rechtfertigen bedeutende Rechtsgüter den Eingriff. Zu deren Schutz kann die Gesichtserkennung als „Frühwarnsystem“ [76] wirkungsvoll beitragen.

Es jedoch steht auch in Frage, ob immer ein bedeutsames Rechtsgut gefährdet ist. Grundsätzlich ist die polizeiliche Ausschreibung schon wegen geringer Anlässe möglich.[77] In solchen Fällen ist das geschützte Rechtsgut, welches zu einem Treffer führt, von geringer Wertigkeit.

Mithin steht ein sehr intensiver Eingriff einer nicht immer erfolgreichen und in der Wertigkeit der Rechtsgüter nicht immer vergleichbaren Rechtfertigung gegenüber. Um den Einsatz intelligenter Videoüberwachung dennoch verfassungskonform auszugestalten, sind Einschränkungen erforderlich.

Aufgrund der hohen Zahl von Falschtreffern[78] bedarf der Einsatz automatisierter Gesichtserkennung zur Rechtfertigung den Schutz bedeutender Rechtsgüter. Die Referenzdatenbanken dürfen nur mit einem eng umgrenzten Datenbestand gefüllt sein, der Rechtsgütern hoher Wertigkeit zum Schutz dient und nur zu Zwecken der unmittelbaren Gefahrenabwehr errichtet ist. Um eine objektive Prüfung des Fahndungsbestandes zu ermöglichen, scheint es außer in Fällen der Suche nach einer Person zur Abwehr einer unmittelbaren Gefahr für diese Person (z.B. Suizidalität), geboten, einen Richtervorbehalt vorzusehen.

Zudem scheint es erforderlich, den Einsatz an räumliche Voraussetzungen, die ein erhöhtes polizeiliches Interesse rechtfertigen, wie z.B. Grenznähe und polizeiliche Lageerkenntnisse[79] zu knüpfen.

Um die Eingriffstiefe nicht unangemessen zu vergrößern, darf die biometrische Gesichtserkennung nur offen durchgeführt werden. So können mögliche Einschüchterungseffekte reduziert werden. Der Bürger kann erkennen, wo die Gesichtserkennung stattfindet und ggf. ausweichen.

Zudem muss deutlich werden, zu welchem Zweck der Einsatz erfolgt. Ferner darf keine Videoaufzeichnung in Verbindung mit automatischer Gesichtserkennung erfolgen, um die Entstehung von Bewegungsprofilen zu verhindern.

Der Einsatz biometrischer Gesichtserkennung ist mithin nur in einem engen Rahmen zulässig. Er darf weder örtlich flächendeckend sein noch aus jedem Anlass heraus stattfinden. Eine Speicherung der Daten ist unzulässig.

e. Betrachtung der aktuellen Rechtsgrundlagen

§ 59 I Polizeivollzugsdienstgesetz (PVDG) Sachsen[80] ist aktuell die einzige Rechtsgrundlage für den Einsatz von Gesichtserkennungssoftware zur Gefahrenabwehr.

Die Rechtsgrundlage beachtet eine Vielzahl von Maßgaben, die einen verfassungskonformen Einsatz der intelligenten Videoüberwachung ermöglichen. Es wird der Einsatz an ein konkreten Ortsbezug mit nachweislich hoher Kriminalität und einen Grenzbezug geknüpft. So ist sichergestellt, dass der Einsatz der automatisierten Gesichtserkennung nur im Sinne der Vorschrift – zur Bekämpfung grenzüberschreitender Kriminalität – genutzt wird. Die Erfassung darf weiter nur offen erfolgen. Auch darf gem. Art. 59 II PVDG nur ein Abgleich mit den Personen erfolgen, die zur Verhütung von bestimmten Straftaten ausgeschrieben sind. Den Anforderungen der Normenklarheit wird die Vorschrift gerecht. Jedoch ist fraglich, ob hinter den Straftaten, überwiegend Vermögensdelikten, eine hinreichende Betroffenheit von Schutzgütern gegeben ist, die solch einen intensiven Eingriff rechtfertigt. Auch die Eingriffsschwelle „drohende Gefahr“ kann verfassungsrechtlichen Bedenken begegnen. § 59 I PDVG enthält eine Reihe von tatbestandlichen Voraussetzungen für den Einsatz von intelligenter Videoüberwachung, mit denen den oben aufgezeigten verfassungsrechtlichen Bedenken begegnet wird. Eine abschließende Bewertung der Norm würde jedoch den Umfang dieses Beitrages übersteigen.

f. Fazit Gefahrenabwehrrecht

Es konnte ein enger Bereich identifiziert werden, in dem ein Einsatz solcher Technik zur Gefahrenabwehr zulässig ist. Ob diese Technik auch den Einzug in die Ordnungsgesetze findet, ist wegen der grundsätzlichen Bedeutung und Auswirkung auf die Gesellschaft auch eine politische auszuhandelnde Entscheidung. Im Rahmen der sächsischen Novelle des Ordnungsrechts wurde eine erste Rechtsgrundlage geschaffen.

2. Einsatz von biometrischer Gesichtserkennung in der Strafverfolgung

Auch in der Strafverfolgung ist der Einsatz biometrischer Gesichtserkennungssoftwares ein brisantes Thema. In technischer Hinsicht ist der Einsatz schon seit mehreren Jahren möglich. Auf rechtlicher Ebene werden allerdings von vielen Seiten Bedenken geäußert. Der Tenor ist immer derselbe: Zum Einsatz biometrischer Gesichtserkennung bedarf es einer ausdrücklichen Rechtsgrundlage. Ein Raunen ging durch die deutsche Juristenwelt, als das VG Hamburg am 23.10.2019 in seinem Urteil verkündete, die Anordnung durch den hamburgischen Datenschutzbeauftragen, die „G20-Datenbank“ zu löschen, sei rechtswidrig. Datenschützer sind ratlos: Was bedeutet das nun für die Zukunft unserer Daten?

a. Grundsätzliche rechtliche Problematik

Wie bereits dargestellt, ist der Einsatz von biometrischer Gesichtserkennungssoftware ein intensiver Eingriff in das Recht auf informationelle Selbstbestimmung. Auch für den strafrechtlichen Einsatz bedarf es einer gesetzlichen Grundlage. Als eine solche wird die Generalklausel des § 48 BDSG rege diskutiert. Problematisch erscheint hier die Unbestimmtheit des § 48 BDSG in Kontrast zu dem empfindlichen Eingriff in das Recht auf informationelle Selbstbestimmung und Privatheit. Eine vorzugswürdige, speziellere Ermächtigungsgrundlage, die den Einsatz biometrischer Gesichtserkennung in der Strafverfolgung eindeutig regelt, kann in der StPO nicht erkannt werden. Es erscheint daher diskussionswürdig, wie ein Grundrechtseingriff dieser Schwere durch biometrische Geschichtserkennungssoftware auf der Grundlage des § 48 BDSG zu rechtfertigen ist.

b. Urteilsbesprechung G20 – datenschutzrechtliche Hindernisse

Das Fehlen einer speziellen Rechtsgrundlage führt bei dem Einsatz der Gesichtserkennungssoftware „Videmo 360“ im Rahmen der Fahndung nach Tatverdächtigen der G20-Ausschreitungen zu umfangreichen Diskussionen. Die Polizei Hamburg setzt eine Software ein, die menschliche Gesichter in zahlenartige Kodierungen umwandelt. Dabei werden 32.000 Bilddateien auf eine Grunddatenbank geladen, in denen eine sechsstellige Personenzahl an Menschen zu sehen ist. Die Gesichter dieser Menschen wurden biometrisch ausgewertet und die Datensätze auf einer Referenzdatenbank gespeichert.  Die konkrete Verwendung der Software besteht darin, Templates von Verdächtigen in die Software einzuspielen, woraufhin Vorschläge für Treffer durch die Software auftauchen. Nach Angaben der Polizei soll es sich bei den auf die Datenbank hochgeladenen Bilder und Videos um formlos sichergestellte Beweismittel nach § 94 Abs. 1 StPO handeln. Der Einsatz der Referenzdatenbank solle bei der Auswertung nur eine „unterstützende“ Hilfestellung sein. Demzufolge sei die biometrische Gesichtsanalyse kein tiefgreifender Grundrechtseingriff und es bedürfe keiner über § 161 Abs. 1 StPO hinausgehende Spezialermächtigung.[81] Entsprechend ist die meist diskutierte Rechtsgrundlage vor Gericht in Bezug auf die Benutzung von der Referenzdatenbank (§§ 161, 163 StPO i.V.m.) § 48 BDSG (n.F.).

aa. Stellungnahme der Polizei Hamburg

Die Polizei Hamburg argumentiert, eine anlasslose Identifikation von Personen sei schon aus technischer Hinsicht nicht möglich, da die Referenzdatenbank nicht mit anderen Datenbanken verknüpft sei. So können nur Personen identifiziert werden, die auch ausdrücklich gesucht werden. Außerdem diene der Einsatz der Referenzdatenbank ausschließlich der technischen Erschließung des rechtmäßig gewonnenen Datenbestands, für die ein Sachbearbeiter sonst mehrere Jahre benötigen würde. Hinsichtlich des Zeitverlusts bei Nichteinsatz sei die Maßnahme des Einsatzes von Gesichtserkennungssoftware auch unbedingt erforderlich im Sinne des § 48 BDSG.[82]

bb. Stellungnahme des Hamburgischen Datenschutzbeauftragten

Der Hamburgische Datenschutzbeauftragte hingegen sieht in dem Auslesen von Gesichtsmerkmalen, wie bei dem Erstellen von einer Referenzdatenbank, einen Verstoß gegen datenschutzrechtliche Vorschriften im Sinne des § 43 Abs. 1 S. 1 HmbJVollzDSG. Der Einsatz einer Referenzdatenbank stelle eine Verletzung des Rechts auf informationelle Selbstbestimmung und Privatheit sowie des Art. 8 I, II EMRK dar. § 48 BDSG sei als Ermächtigungsgrundlage ungeeignet, da diese zu unbestimmt sei für einen solch intensiven Grundrechtseingriff. Der Löschungsauftrag der Referenzdatenbank liege schließlich auch in seinem Ermessen, weil er sich nicht auf die Grunddatenbank beziehe.[83]

cc. Urteil des VG Hamburg

Aus Sicht des VG Hamburgs fehle es gerade an einem datenschutzrechtlichen Verstoß, wie in § 43 Abs. 1 S. 1 HmbJVollzDSG vorausgesetzt. Ein solcher Verstoß werde durch den hamburgischen Datenschutzbeauftragten gar nicht festgestellt, sondern das Fehlen einer Rechtsgrundlage. Dabei verkenne der Datenschutzbeauftragte, dass § 48 BDSG mangels speziellerer Rechtsgrundlage anwendbar sei. In der von ihm angenommenen mangelnden Bestimmtheit der Norm liege kein Verstoß der Datenverarbeitung im Sinne des Datenschutzrechts. Vielmehr sei die mangelnde Bestimmtheit als verfassungsrechtliches Defizit zu betrachten. Der Grundsatz des Vorranges von Gesetz sei von dem Datenschutzbeauftragten nicht hinreichend beachtet worden. Durch seine Löschungsanordnung entscheide er durch Verwaltungsakt über die Anwendbarkeit von § 48 BDSG, wobei fraglich ist, ob diese Handlung seine Prüfungsbefugnisse übersteigt. Außerdem sei nicht auf konkrete Begebenheiten eingegangen worden, sondern stattdessen auf fiktive Möglichkeiten des Einsatzbereiches von Gesichtserkennungssoftware. Abgesehen davon sei auch das Auswahlermessen verfehlt worden. Schließlich hätte man statt einer Löschung auch normkonkretisierende Auflagen anordnen können.[84]

i. Kritische Auseinandersetzung mit dem Urteil des VG Hamburg

(1) Verstoß gegen datenschutzrechtliche Vorschriften

Gestützt wird der Löschungsauftrag des Hamburgischen Datenschutzbeauftragten auf § 43 Abs. 1 S. 1 HmbJVollzDSG. Nach dieser Ermächtigungsgrundlage werden ein Vorschriftenverstoß gegen eine datenschutzrechtliche Vorschrift oder sonstige Mängel bei der Verarbeitung oder Nutzung personenbezogener Daten vorausgesetzt. Nun könnte einem zunächst in den Sinn kommen, nach einer Verbotsnorm gegen Einsatz von Gesichtserkennung zu suchen. Allerdings ist jede Verarbeitung personenbezogener Daten ein Eingriff in die Grundrechte auf Privatleben nach Art. 7 GRCh, auf Datenschutz nach Art. 8 GRCh und auf informationelle Selbstbestimmung nach Art. 2 Abs.1 i.V.m. Art. 1 Abs. 1 GG. Dem Grundsatz des Gesetzesvorbehalts nach darf eine personenbezogene Datenverarbeitung nur stattfinden, wenn eine gesetzliche Regelung dies erlaubt.[85] Davon ausgehend muss also, wie vom Datenschutzbeauftragten völlig richtig festgestellt, ein Erlaubnistatbestand gefunden werden, um eine Maßnahme zu rechtfertigen. Dass der Datenschutzbeauftragte nur innerhalb seiner Handlungsbefugnis handelt, wenn eine Verbotsnorm vorliegt, wie vom VG Hamburg festgestellt, erscheint mit Blick auf das Rechtsstaatprinzip und der Bindung der Exekutive an Recht und Gesetz fernliegend. Nach Art. 47 II lit. b, c JI-RL werden die Mitgliedstaaten dazu verpflichtet, den Datenschutz-Aufsichtsbehörden effektive Anordnungsbefugnisse bei Verstößen gegen das unionsrechtliche Datenschutzrecht zu erteilen. Die Prüfung der Bestimmtheitsanforderungen obliegt nicht eigens der Aufgabe von Verfassungsgerichten. Die Träger der öffentlichen Verwaltung müssen diese Anforderungen insofern beachten, als ein staatlicher Eingriff nicht auf eine Rechtsgrundlage gestützt werden darf, die dem Bestimmtheitsgebot nicht entspricht.[86] Dabei ist dies keine Prüfung der Verfassungsmäßigkeit, sondern eine Prüfung des Anwendungsbereichs der Generalklausel.[87] Eine Ermächtigungsgrundlage könnte sich nach Angaben der Polizei Hamburg und des VG Hamburg aus § 48 BDSG ergeben. Diese ist vom Datenschutzbeauftragten mit Blick auf deren Anwendungsbereich auch zu prüfen.

(a) Anwendungsbereich des § 48 BDSG

Wie bereits dargestellt, ist die intelligente Gesichtserkennung eine Form der Auswertung biometrischer Daten. Nach Art. 10 RL ((EU) 2016/680) ist die Verarbeitung biometrischer Daten zur eindeutigen Identifizierung einer natürlichen Person nur dann erlaubt, wenn sie unbedingt erforderlich ist, die Rechte und Freiheiten einer der Person garantiert werden und eine Rechtsvorschrift die Verarbeitung erlaubt. Dieser Artikel der Richtlinie hat maßgeblich in § 48 BDSG (n.F.) Umsetzung gefunden.[88] § 48 BDSG stellt eine generalklauselartige Rechtsgrundlage dar, der spezialgesetzlichere Normen vorgehen.[89] Ermächtigungsgrundlagen aus der Strafprozessordnung finden sich allerdings gerade nicht, weil sie entweder schlicht und ergreifend nicht auf den konkreten Fall anwendbar sind (wie § 98c StPO), oder aber vom Wortlaut her nicht passen, weil sie nur als Grundlage für die Videoüberwachung dienen (so 100h StPO). Es wird also auf die generalklauselartige Rechtsgrundlage des § 48 BDSG zurückgegriffen. In dem Wortlaut von § 48 Abs. 1 BDSG ist ebenfalls die Verarbeitung von personenbezogenen Daten erfasst. Diese stellen nach § 47 Ziff. 14 lit.c BDSG auch biometrische Daten dar. Wegen der relativ weiten Anwendungsmöglichkeit ist die Rechtsgrundlage streng auf die Konkretisierung durch Auslegung im Einzelfall angewiesen. Wird die Norm nicht streng nach europa- und grundrechtlichen Regeln ausgelegt, besteht die Gefahr von diskriminierender Beeinträchtigung der Grundrechte Betroffener durch Justiz und Polizei. Entsprechend muss eine Datenverarbeitung durch Justiz und Polizei beinahe unverzichtbar sein.[90] Es gilt der Grundsatz, dass die Sensibilität eines Datums entscheidend von seinem Verwendungskontext abhängt.[91] Das heißt konkret: Je sensibler die Daten des/der Betroffenen, desto strenger ist die europäische- und verfassungsgemäße Auslegung vorzunehmen. Der Anwendungsbereich wird weiter eingegrenzt durch die „unbedingte Erforderlichkeit“.  Hierbei ist zu beachten, dass der Begriff der Erforderlichkeit als datenschutzrechtlich autonom zu betrachten und damit auch entsprechend auszulegen ist (als autonomer Begriff der Unionsrechtsordnung).[92] Es soll vor allem verhindert werden, dass bestimmte Stellen zu unbestimmten oder noch nicht bestimmten Zwecken Daten sammelt, wodurch das allgemeine europa- und verfassungsrechtliche Verbot der Vorratsdatenspeicherung abgesichert wird.[93] Bezugspunkt der Auslegung soll neben der Europäischen Grundrechtecharta außerdem der in § 47 Nr. 2 BDSG durch die Exekutive festgelegte Verwendungszweck der Maßnahme sein. Allerdings kann eine Auslegung allgemein dadurch erschwert werden, dass auch zukünftige Verfahrensabläufe beleuchtet werden müssen, sodass hochgradig ungewisse Prognosen getroffen werden können.[94] Wichtig ist vor allem, dass sich die Verarbeitung der personenbezogenen Daten auf den absolut notwendigen Umfang bezieht.[95]

(b) Auslegung in dem konkreten Fall

Stark kritisiert durch den hamburgischen Datenschutzbeauftragten wird die Unbestimmtheit des § 48 BDSG. Schließlich müsse der Grundsatz der Regelungsdichte beachtet werden. Dieser besagt, dass eine Norm umso bestimmter sein muss, desto intensiver sich der Grundrechtseingriff gestaltet. Gerade vorliegend handle es sich doch um einen besonders intensiven Grundrechtseingriff. Auf der einen Seite ist der unpräzise Wortlaut von § 48 Abs. 1 BDSG mit Hinblick auf den intensiven Grundrechtseingriff durchaus zu bemängeln. Schließlich wird der Grundrechtseingriff durch die Verwendung von Gesichtserkennung neben der herkömmlichen Videoüberwachung noch um ein Vielfaches verstärkt. Daran knüpft auch die Entscheidung zur automatischen Kennzeichenerfassung des BVerfG an, die Kriterien für Eingriffe, die eine speziellere Rechtsgrundlage erfordern konkretisieren. Demnach sind eine unbestimmte Vielzahl Unbeteiligter, die anlasslos identifiziert werden, Verdecktheit der Maßnahme und das Gefühl des Überwachtwerdens durchaus gewichtige Kriterien, die zu der Notwendigkeit einer spezielleren Rechtsgrundlage als § 48 Abs. 1 BDSG führen können. In dem Falle des Einsatzes von Videmo 360 werden auf der Referenzdatenbank lediglich Gesichter von Personen erkannt, die auch durch die Polizei identifiziert werden sollen. Fremde Personen bleiben fremd, da sie mangels Verbindung mit anderen Datenbanken überhaupt nicht identifizierbar sind. Damit geschieht auch keine anlasslose Identifikation. Wer an einer Versammlung teilnimmt, muss auch ohne Einwilligung damit rechnen, dass sein Gesicht medial übertragen und damit gesehen wird. Die dahinterstehende Identität bleibt allerdings für die meisten Personen fremd, da der Name im Regelfall nicht auf der Stirn steht. Nicht anders verhält es sich auch in dem Fall von Videmo 360. Die Polizeibeamten, die nach dem Suchlauf die Treffer auswerten sehen in den „Nichttreffern“ nichts weiter als fremde Gesichter auf dem Material. Zwar ließe sich argumentieren, eine Weitergabe von Daten oder eine Verknüpfung mit anderen Datenbanken sei niemals auszuschließen und damit bestünde zumindest zukünftig die Möglichkeit einer anlasslosen Identifikation. Dieses Argument scheint allerdings fernliegend, wo doch die Polizei versichert, die Datenbank werde nach Abschluss der Ermittlungen gelöscht und nicht für anderweitige Abgleiche genutzt. Schließlich leben wir in einem Rechtsstaat in dem es der Polizei nicht möglich ist, entsprechende Daten zu verwenden wie es ihr beliebt, ohne sich auf eine Rechtsgrundlage stützen zu können. Auch das Gefühl des Überwachtwerdens darf in Demonstrationssituationen nicht dieselbe Gewichtung erfahren, wie in Alltagssituationen. Schließlich können Videoüberwachungen auf Demonstrationen mit tausenden von Beteiligten nicht mit einer staatlich beauftragten Videoüberwachung bei einem Supermarkteinkauf oder einem Einkaufsbummel verglichen werden. Die Ermittlungen zu den G20-Ausschreitungen wären ohne die erstellte Datenbank der Polizei zu großen Teilen im Sand verlaufen oder nicht möglich gewesen. Somit sind die Erstellung und Nutzung dieser als unverzichtbar einzustufen. Der Einsatz der Referenzdatenbank lässt sich somit nach strenger Auslegung auf § 48 Abs. 1 BDSG stützen.

(c) Abschließende Bewertung

Entsprechend der Ausführungen liegt ein Erlaubnistatbestand in Form von § 48 BDSG vor, der nach europa- und verfassungsgemäßer Auslegung in dem konkreten Fall auch anwendbar ist. Im Ergebnis entspricht dies der Ansicht des VG Hamburg. Dies mag für Datenschützer zunächst abschreckend erscheinen. Man sollte allerdings im Hinterkopf behalten, dass die Erlaubnis verschiedener Gesichtserkennungssysteme in der Strafverfolgung mangels spezieller Rechtsgrundlage immer von der Einzelfallbeurteilung abhängig gemacht wird. Die G20-Ausschreitungen in Hamburg haben nicht nur Deutschland, sondern die ganze Welt bewegt. Ohne Einsatz von Gesichtserkennungssoftware hätte nicht so effektiv und zielbringend gearbeitet werden können. Sicherlich hat die Entscheidung des VG Hamburg eine Signalwirkung hinsichtlich des Einsatzes von Gesichtserkennungssoftwares bei der Strafverfolgung. Es steht auch außer Frage, dass zur umfassenderen Nutzung solcher Softwares spezielle Rechtsgrundlagen notwendig sind.

(2) Unzureichende Löschungsvorgänge

Ende Mai 2020 setzte die Polizei Hamburg den Hamburger Datenschutzbeauftragten in Kenntnis darüber, dass mangels weiterer strafverfolgungsrechtlicher Relevanz die Referenzdatenbank nun gelöscht worden sei.[96] Die Unvorhersehbarkeit der Löschung der Grund- und Referenzdatenbank bei Erstellung der Datenbanken bleibt allerdings problematisch. Dabei geht es darum, dass Daten nicht anlasslos gespeichert werden dürfen.[97] Nun besteht zwar vorliegend ein Anlass der gespeicherten Daten und vor allem werden Unbeteiligte nicht anlasslos identifiziert. Allerdings kann es unter Betrachtung des Verbots anlassloser Speicherung nicht im Sinne europa- und verfassungskonformer Auslegung sein, die Daten auf unbestimmte Zeit zu speichern. Nach Angaben der Staatsanwaltschaft sollten die Daten gespeichert werden, bis die Fahndungen zu G20-Verbrechen abgeschlossen sind. Diese Aussage ist mit Blick auf das Verbot der anlasslosen Speicherung von personenbezogenen Daten nicht ausreichend konkretisiert.

(3) Gebrauch des Auswahlermessens

Der hamburgische Datenschutzbeauftragte hat dem Wortlaut des § 43 HmbJVollzDSG nach bei dem Erlass von Anordnungen ein Auswahlermessen. Dabei wäre wohl die drastischste Entscheidung gewesen, die Anordnung zur Löschung der Grunddatei zu erteilen. Es wurde sich dafür entschieden, die Löschung der Referenzdatenbank anzuordnen, die nach Angaben der Polizei innerhalb weniger Wochen wieder generiert werden kann. Das Gericht allerdings ist der Meinung, man hätte den Einsatz von Videmo 360 auch durch Auflagen besser gestalten können.[98] Dabei gesteht das Gericht wohl konkludent ein, dass es leichte Defizite bei dem Einsatz von Videmo 360 sieht, die allerdings durch ebensolche Auflagen behoben werden können. Nach Angaben des Gerichts könnten Suchläufe dokumentiert und dem Datenschutzbeauftragten übermittelt werden. Ferner könnte durch Auflagen sichergestellt werden, dass die Datenbank nicht mit anderen Datenbanken verknüpft wird, sodass anlasslose Identifikationen von Personen mit Sicherheit rechtlich niemals in der Zukunft möglich sein werden. Neben diesen Vorschlägen des Gerichts könnte ein konkretes Löschungsdatum festgelegt werden und sichergestellt, dass auch alle Daten in einem bestimmten Zeitraum abschließend gelöscht werden. Folglich gibt es neben der Löschung der Datenbank ein mindestens genauso effektives, aber milderes Mittel zum Erreichen eines verhältnismäßigen Gebrauches von Videmo 360.

ii. Ergebnis

Der hamburgische Datenschutzbeauftragte äußert berechtigte Bedenken hinsichtlich des Einsatzes von biometrischer Gesichtserkennung in der Strafverfolgung. Mit der fortschrittlichen Technik ist es heutzutage möglich, Personen zu jeder Zeit an jedem Ort aufzufinden und zu identifizieren. Wenn der Strafverfolgung also bei noch intensiveren Eingriffen in die informationelle Selbstbestimmung keine rechtlichen Grenzen gesetzt werden, kann der Einsatz der Gesichtserkennungssoftware ausufern. Allerdings muss das Gericht den Einsatz der Software in dem konkreten Fall betrachten und hier sind keine anlasslosen Identifikationen unschuldiger Personen ersichtlich.

c. Einschätzung zur allgemeinen strafverfolgungs- und datenschutzrechtlichen Situation

Dass § 48 BDSG eine (durchaus tatbestandlich weitgehende) generalklauselartige Rechtsgrundlage darstellt, ist unumstritten. Werden also die Eingriffe in das Recht auf informationelle Selbstbestimmung oder das Recht auf Privatheit noch intensiver durch beispielsweise anlasslose Identifikationen, indem Datenbanken verknüpft werden, ist eine Auslegung von § 48 BDSG, die eine anlasslose Datenspeicherung rechtfertigt, nicht mehr denkbar. Denn hier gäbe es zu wenig Anhaltspunkte, um eine regelkonforme Auslegung zu gestalten. Wie viele Personen dürfen anlasslos identifiziert werden? Wie lange dürfen unbeteiligte, identifizierte Personen gespeichert werden? Das sind Fragen, die durch Auslegung nicht mehr beantwortet werden dürfen. Das VG Hamburg bewegt sich mit der Auslegung von § 48 BDSG zu Videmo 360 im methodenkonformen Bereich. Daran wird die Strafverfolgung sicherlich anknüpfen und umfassendere Einsatzmöglichkeiten der Software anvisieren. Um Rechtssicherheit bei einem solchen Einsatz zu erlangen, sollten konkrete Normen (wie § 100 h StPO zur Videoüberwachung) erlassen werden. Schließlich darf auch nicht jede polizeiliche Maßnahme auf die Ermittlungsgeneralklausel der §§ 161, 163 StPO gestützt werden.[99]

III. Ausblick

Die Weiterentwicklung der Gesichtserkennungstechnologie und der Kameratechnik werden auch in der Zukunft verfassungsrechtliche Probleme hervorrufen. Wie der Beitrag zeigt, weist bereits die aktuelle Technik ein erhebliches Regelungsbedürfnis auf. Das Grundgesetz setzt dem Einsatz dieser Techniken erkennbare Grenzen. Dennoch kann der Einsatz automatisierter Gesichtserkennung im öffentlichen Raum zulässig sein. Wie in diesem verfassungsrechtlichen Rahmen die Verwendung automatisierter Gesichtserkennung genau erfolgt, muss das Ergebnis eines breiten politischen Diskurses sein.


[1] Beuth/ Horchert, Das US-Unternehmen, das mit ihrem Gesicht Geld verdient, https://www.spiegel.de/netzwelt/gesichtserkennungs-app-clearview-kennt-dich-a-00000000-0002-0001-0000-000169122938, alle Online-Quellen wurden zuletzt am 13.04.2020 aufgerufen.

[2]Brühl/Hurtz, Eine Software schockiert Amerika,https://www.sueddeutsche.de/digital/gesichtserkennung-clearview-app-polizei-gesicht-1.4764389; Klaus, Diese Firma kennt Milliarden Gesichter, https://www.zdf.de/nachrichten/digitales/us-firma-clearview-sammelt-milliarden-fotos-fuer-gesichtsdatenbank-100.html; Neuerer, SPD-Chefin fordert Verbot von Gesichtserkennung, https://www.handelsblatt.com/politik/deutschland/oeffentlicher-raum-spd-chefin-esken-fordert-verbot-von-gesichtserkennung-fdp-und-gruene-fuerchten-totalueberwachung/25462350.html?ticket=ST-425406-00q51Y2xXHbDh2MqkT0n-ap5; Bergt, Der neue Grusel, https://taz.de/Gesichtserkennung-im-Netz/!5655672/; eine ältere, hypothetische Betrachtung: Lobo, in fünf Jahren ist Ihr Gesicht Ihr Personalausweis https://www.spiegel.de/netzwelt/web/kameraueberwachung-wird-zur-verhaltenskontrolle-a-1135744.html.

[3] Die Bundespolizei erprobte im Zeitraum vom 01.08.2017-31.07.2018 drei verschiedene Systeme der automatisierten Gesichtserkennung am Bahnhof Berlin Südkreuz mit 300 Probanden. Der Abschlussbericht der Bundespolizei (BPol) findet sich hier: https://www.bundespolizei.de/Web/DE/04Aktuelles/01Meldungen/2018/10/181011_abschlussbericht_gesichtserkennung_down.pdf?__blob=publicationFile.

[4] https://www.revosax.sachsen.de/vorschrift/18193-Saechsisches-Polizeivollzugsdienstgesetz-#p59.

[5] Schnell, CSU entschärft nach heftigen Protesten PAG, https://www.sueddeutsche.de/bayern/landtag-csu-entschaerft-nach-heftigen-protesten-polizeigesetz-1.3957861; vergleiche auch Art. 33 V PAG Bayern, der jetzt nur eine Mustererkennung vorsieht.

[6] Dahlkamp/Knobbe/Ulrich, Seehofer will Gesichtserkennung an Bahnhöfen und Flughäfen einführen, https://www.spiegel.de/politik/horst-seehofer-so-will-er-die-bundespolizei-aufruesten-a-00000000-0002-0001-0000-000168763959.

[7] Laufer, Innenministerium streicht automatisierte Gesichtserkennung, https://netzpolitik.org/2020/innenministerium-streicht-automatisierte-gesichtserkennung/.

[8] BPol-Abschlussbericht, 3.2 Teilprojekt 1 „biometrische Gesichtserkennung“, S. 14.

[9] BPol-Abschlussbericht, 4.2.1.2 Gesichtserkennung, S. 19.

[10] Klatt, Amazons Gesichtserkennung versagt bei Frauen, https://www.bluebit.de/news/studie-amazons-gesichtserkennung-versagt-bei-frauen-31411099.

[11] BPol-Abschlussbericht, 4.2.1 Detektion, Identifikation und Treffergenerierung, S. 18.

[12] BPol-Abschlussbericht,4.2.1.2 Gesichtserkennung, S. 19.

[13] Kirchenbuchner, Es ist möglich, die Systeme zu umgehen, https://www.deutschlandfunk.de/automatische-gesichtserkennung-es-ist-moeglich-die-systeme.676.de.html?dram:article_id=468082.

[14] BPol-Abschlussbericht, 5.4 Ermittlung der Trefferrate, S. 28.

[15] BPol-Abschlussbericht, 5.3 Bestimmung der Falschakzeptanzrate, S. 28.

[16] BPol-Abschlussbericht, 5.1.1. Ergebnisse Testphase 1, S. 24.

[17] BPol-Abschlussbericht, 5.1.2 Ergebnisse Testphase 2, S. 25.

[18] Chaos Computer Club, Der Südkreuz-Versuch war kein Erfolg, https://www.ccc.de/de/updates/2018/debakel-am-suedkreuz.

[19] https://www.ccc.de/de/updates/2018/debakel-am-suedkreuz.

[20] BVerfGE 113, 29, 46; 115, 166, 188; 115, 320, 341 f.

[21] BVerfG 1 BvR 2074/05, Rn. 68, http://www.bverfg.de/e/rs20080311_1bvr207405.html.

[22] Zum Stand dieser Diskussion, siehe: Held, Intelligente Videoüberwachung, S. 71 ff.

[23] Schenke, Festschrift, S. 1087 ff.

[24] Dazu Stettner, Elisa, Sicherheit am Bahnhof, S. 144 u. S. 154 f.; auch Held, intelligente Videoüberwachung, S. 72.

[25] BVerfGE 65, 1, 42.

[26] BVerfGE 65, 1, 42; Franzius, Das Recht auf informationelle Selbstbestimmung, ZJS 2015, 259.

[27] Desoi, S. 83 f.

[28] Di Fabio in: Maunz/Düring, Grundgesetz-Kommentart, Art. 2 I GG, Rn. 175

[29] Held, Intelligente Videoüberwachung, S. 82.

[30] Stettner, Sicherheit am Bahnhof, S. 89

[31] Schenke, Festschrift, S. 1083.

[32] Desoi, S. 87.

[33] Desoi, S. 87.

[34] BVerfG 1 BvR 142/15, Rn. 46, http://www.bverfg.de/e/rs20181218_1bvr014215.html.

[35] BVerfGE 120, 378.

[36] BVerfGE 120, 378, 399.

[37] Desoi, S. 92; Schenke, Festschrift, S. 1082.

[38] Ähnlich: Schenke, Festschrift 1083.

[39] Zu diesem Gedanken Zittner, kommunale Videoüberwachung, S. 70; auch Hornung/Desoi, „Smart Cameras“ und automatische Verhaltensanalyse, K R 2011, S. 153.

[40] BVerfG 1 BvR 142/15, Rn. 50, http://www.bverfg.de/e/rs20181218_1bvr014215.html.

[41] BVerfG 1 BvR 142/15, Rn. 51, http://www.bverfg.de/e/rs20181218_1bvr014215.html.

[42] Wendt, ZD aktuell, 2017, 05724.

[43] Stettner, Sicherheit am Bahnhof, S.148, Held, Intelligente Videoüberwachung S. 90 und 113.

[44] Wendt, ZD-Aktuell 2017, 05724.

[45] Franzius, ZJS 2015, 260.

[46] MMR 2011, 128, 131.

[47] Dazu Schenke, Festschrift S. 1090.

[48] Zu diesem Gedanken auch: Schindler, ZB-Aktuell 2019, 06701.

[49] Schindler, ZD-Aktuell 2017, 05799; Wissenschaftlicher Dienst des Bundestages WD 3 – 3000 – 202/16, https://www.bundestag.de/resource/blob/439670/e2efe42f49749393cc701c7c4f9af7d8/wd-3-202-16-data.pdf;Schenke, Festschrift, S. 1090; Held, intelligente Videoüberwachung, S. 62; Desoi, S. 136.

[50] BVerfG 1 BvR 2074/05, Rn. 100, http://www.bverfg.de/e/rs20080311_1bvr207405.html; BVerfG 1 BvR 142/15, Rn. 108, http://www.bverfg.de/e/rs20181218_1bvr014215.html.

[51] BVerfG 1 BvR 2074/05, Rn. 78, http://www.bverfg.de/e/rs20080311_1bvr207405.html.

[52] Siehe als Beispiel § 3 I 1 SOG HH.

[53] BPol-Abschlussbericht, polizeifachliche Bewertung, S. 38.

[54]BKA, was bedeutet Fahndung?, https://www.bka.de/DE/IhreSicherheit/Fahndungen/WasBedeutetFahndung/wasbedeutetfahndung_teaser.html.

[55] So auch: DW, Fast 300.000 Personen stehen auf der Fahndungsliste, https://www.dw.com/de/fast-300000-personen-stehen-auf-der-fahndungsliste/a-44866521.

[56] So beschrieben in: Stettner, S 149.

[57] BVerfG 1 BvR 142/15 -, Rn. 72, http://www.bverfg.de/e/rs20181218_1bvr014215.html.

[58] BPol-Abschlussbericht, 5.1.1. Testphase 1, S. 24.

[59] ist eine Komponente des Begriffs der Verhältnismäßigkeit. Erforderlich ist eine behördliche Maßnahme, wenn es zur Erreichung des angestrebten Zwecks kein geeignetes Mittel gibt, das den Einzelnen oder die Allgemeinheit weniger beeinträchtigt.

[60] Siehe dazu auch: Stettner, S. 149; So auch Held, intelligente Videoüberwachung, S. 127.

[61] Definition Angemessenheit, https://www.iurastudent.de/definition/angemessenheit.

[62] BVerfG 1 BvR 2074/05, Rn. 101 – 131, http://www.bverfg.de/e/rs20080311_1bvr207405.html.

[63] Zu ähnlichem Gedanken: Stettner, S. 150.

[64] Ullrich, tausende Unschuldige in Polizeidatenbank, https://www.welt.de/regionales/bayern/article143444385/Tausende-Unschuldige-in-Polizei-Datenbank.html.

[65] Laufer, https://netzpolitik.org/2020/innenministerium-streicht-automatisierte-gesichtserkennung/.

[66] BVerfG 1 BvR 256/08, Rn. 313, http://www.bverfg.de/e/rs20100302_1bvr025608.html.

[67] Held, intelligente Videoüberwachung, S. 137 und Stettner, S. 151.

[68] BMI, zur Funktionsfähigkeit bei Verdeckung: https://www.bmi.bund.de/SharedDocs/pressemitteilungen/DE/2018/10/gesichtserkennung-suedkreuz.html.

[69] BVerfGE 113, 348, 383 f.; BVerfG 1 BvR 2074/05, Rn. 79, http://www.bverfg.de/e/rs20080311_1bvr207405.html.

[70] Salzmann/Schindler, ZD 2018, S. 453.

[71] Bereits schon den Eingriff bei solcher Ausgestaltung verneinend, Desoi, S. 92.

[72] Siehe hierzu Bier/Spiecker, Intelligente Videoüberwachungstechnik: Schreckensszenario

oder Gewinn für den Datenschutz?, CR 2012, S. 614, auch Desoi, S. 121.

[73] Bier/Spiecker, CR 2012, S. 612.

[74] Bier/Spiecker, CR 2012, S. 622.

[75] BVerfG 1 BvR 2074/05, Rn. 9, http://www.bverfg.de/e/rs20080311_1bvr207405.html; Hornung/Schindler, ZD 2017, S.206.

[76] So auch Stettner, S. 152.

[77] Gem § 131a StPO reicht eine fehlende Postadresse als Anlass aus.

[78] Siehe dazu I.

[79] Zu diesem Gedanken bei der Kennzeichenerfassung: BVerfG 1 BvR 2074/05, Rn. 175, http://www.bverfg.de/e/rs20080311_1bvr207405.html und BVerfG 1 BvR 142/15, Rn. 146 & 149, http://www.bverfg.de/e/rs20181218_1bvr014215.html.

[80] Sächsisches Polizeivollzugsgesetz, https://www.revosax.sachsen.de/vorschrift/18193-Saechsisches-Polizeivollzugsdienstgesetz-#p59.

[81] VG Hamburg, 17 K 203/19, aufrufbar unter: http://justiz.hamburg.de/contentblob/13535554/cc5a1e8c70c95088220147f57921d22d/data/17-k-203-19.pdf.

[82] VG Hamburg, 17 K 203/19.

[83] vgl. ausf.: Prüfungsbericht des Datenschutzbeauftragten für Hamburg, https://datenschutz-hamburg.de/assets/pdf/Pruefbericht_Gesichtserkennungssoftware.pdf.  

[84] VG Hamburg, 17 K 203/19.

[85] Roßnagel, NJW 2019, S. 1.

[86] BGH NJW 2007, 2320.

[87] Mysegades, NVwZ 2020, 853.

[88] Albers/BeckOK DatenschutzR BDSG, § 48, Rn. 1.

[89] Braun/Gola/Heckmann (Hrsg.), BDSG, § 48, Rn. 1, 3.

[90] Schwichtenberg, Kühling/Buchner (Hrsg.), DS-GVO BDSG, § 48, Rn. 3.

[91] Albers/BeckOK DatenschutzR BDSG, § 48, Rn. 14; (ausf. Simitis/Simitis, BDSG a.F. Einl. Rn. 159ff.).

[92] EuGH NVwZ 2009, 379, Rn. 52.

[93] BVerfG NJW 2010, 833; EuGH DÖV 2014, 617.

[94] Albers/BeckOK DatenschutzR BDSG, § 48, Rn. 22.

[95] EuGH ZD 2017, 324, Rn. 30.

[96] Schemm, „Polizei Hamburg löscht die im Zuge der G20-Ermittlungen erstellte biometrische Datenbank zum Gesichtsabgleich“, https://datenschutz-hamburg.de/pressemitteilungen/2020/05/2020-05-28-datenbank-loeschung.

[97] dazu ausf.: Roßnagel, NJW 2017, S. 696.

[98] VG Hamburg, 17 K 203/19.

[99] Sackreuther, BeckOK StPO, § 161, Rn. 4.