Wer ist es, der da zum Bahnhof geht?

Erstveröffentlicht: 
01.08.2017
Heute beginnt am Berliner Bahnhof Südkreuz ein umstrittener Modellversuch, der Datenschützer schaudern lässt: Gesichtserkennungssysteme sollen alle, die dort ein- und ausgehen, nicht nur filmen, sondern auch identifizieren.

Von Christian Rath und Andreas Rabenstein

 

Die gute alte Zeit der Videoüberwachung geht langsam zu Ende. Bislang, so kannte man das, zeigten die Systeme lediglich: Da geht gerade jemand zum Bahnhof. Von jetzt an sollen die Maschinen noch einen Schritt weiter gehen und gleich noch klären: Wer ist es, der da gerade zum Bahnhof geht? Und liegt gegen ihn etwas vor?

 

„Intelligente Videoüberwachung“ nennt Bundesinnenminister Thomas de Maizière sein neues Projekt. Es könnte, schwärmen Ermittler, die Terrorbekämpfung einen großen Schritt voranbringen. Datenschützer indessen schlagen Alarm: Wenn es in dieser Richtung weitergehe, könne bald niemand mehr durch die Straßen gehen, ohne von staatlichen Maschinerien erkannt zu werden.

 

Der Minister hatte schon im Sommer des vergangenen Jahres eine Vision. „Wenn ein gesuchter Schwerverbrecher in einen Bahnhof geht, dann könnten ihn die Videokameras dort sofort erkennen“, sagte er. Auch hilflose Personen und herrenlose Koffer sollen schneller gefunden werden. Kritiker glauben, de Maizière überschätze die Möglichkeiten der neuen Technik.

 

In einem ersten Schritt dreht sich alles um die Gesichter der Reisenden. Drei speziell präparierte Kameras nehmen im Bahnhof Berlin-Südkreuz die Passanten auf, beim Betreten und beim Verlassen des Gebäudes und auf einer Rolltreppe. Täglich laufen mehr als 100 000 Menschen durch den Fern- und S-Bahnhof.

 

Als Testpersonen machen rund 300 Pendler mit. Sie haben sich Ende Juni nach einem Aufruf der Bundespolizei freiwillig gemeldet. Als Belohnung bekommen sie einen Amazon-Gutschein über 25 Euro – wenn sie die Versuchsanordnung in sechs Monaten mehr als 25-mal durchqueren. Die drei Personen, die den Testbereich am häufigsten nutzen, erhalten als „Prämie“ eine Smartwatch, eine Fitnessuhr oder eine Kamera.

 

Für den Fall, dass die Kamerasysteme die Gesichtserkennung nicht hinbekommen, ist vorgesorgt: Damit die Polizei weiß, wann die Testpersonen tatsächlich im Bahnhof waren, müssen sie einen scheckkartengroßen Transponder mit sich führen.

 

Vor allem aber mussten sich die 300 Testpersonen vorab fotografieren lassen. Die biometrischen Daten dieser Fotos bilden nun die Testdatenbank. Mit ihr vergleicht die Gesichtserkennungssoftware die biometrischen Daten aller Passanten, die ab 1. August in den Testbereichen gefilmt werden.

 

Die Aufnahmen der Passanten werden ausschließlich mit dieser Testdatenbank verglichen und nicht mit polizeilichen Fahndungsdatenbanken. Es geht hier also nur um eine Technikschau – noch nicht um die tatsächliche Suche nach Verbrechern.

 

Von drei Firmen hat die Polizei diverse Gesichtserkennungssysteme gemietet, um sie zu vergleichen, nach Informationen der Internetspezialisten von netzpolitik.org für 60 000 Euro. Gut ist ein System, wenn es die Testpersonen häufig erkennt – und zugleich nur selten falschen Alarm auslöst, also unbeteiligte Passanten für Testpersonen hält.

 

Zumindest für die Dauer des Versuchs soll der Datenschutz gesichert sein. Wer als Passant in den kommenden Wochen und Monaten nicht Teil der technischen Erprobungen sein will, wird von heute an mit Schildern und Markierungen darauf hingewiesen, wie er den Testbereich umgehen kann.

 

Falls die Technik das hält, was sich de Maizière von ihr verspricht, würden die Sicherheitsbehörden das Bild „eines flüchtigen Terroristen“ in die Software einspielen, sagte er jüngst in einem Interview, „sodass ein Alarm angeht, wenn er irgendwo an einem Bahnhof auftaucht“.

 

Und dann? „Einsatzkräfte können anschließend zielgerichtet Maßnahmen im Rahmen der gesetzlichen Möglichkeiten gegen diese Person treffen“, heißt es in einer Information der Bundespolizei. Gemeint ist schlicht eine Verhaftung oder Festnahme.

 

Ob eine solche Fahndung mittels Gesichtserkennung rechtlich ­möglich ist, ist noch nicht geklärt. Seit Mai 2015 verbietet zwar die neue EU-Datenschutz-Grundverordnung grundsätzlich die Verarbeitung biometrischer Daten. Das Verbot gilt aber nicht, wenn die Verarbeitung „aus Gründen eines erheblichen öffentlichen Interesses erforderlich“ ist.

 

Dass der Schutz vor Anschlägen ein erhebliches öffentliches Interesse darstellt, dürfte unstreitig sein. Fraglich ist aber, ob die Fahndung per Gesichtserkennung unverhältnismäßig ist, weil ja vor allem Unbeteiligte erfasst werden. Im Falle des Bahnhofs Südkreuz um die 100 000 täglich.

 

Große Vorbehalte hat Deutschlands oberste Datenschützerin Andrea Voßhoff. Der Test sei akzeptabel. Sie habe aber „grundsätzliche Bedenken gegen die Technologie“. „Sollten derartige Systeme einmal in Echtbetrieb gehen, wäre dies ein erheblicher Grundrechtseingriff.“ Die Freiheit, sich anonym in der Öffentlichkeit zu bewegen, könne zerstört werden.

 

Letztlich wird eine biometrische Gesichtsfahndung aber wohl weniger an rechtlichen als an technischen Hürden scheitern. Schon im Jahr 2007 machte das Bundeskriminalamt einen ernüchternden Praxistest im Mainzer Hauptbahnhof. Die 200 damals gesuchten Testpersonen konnten zwar bei Tageslicht mit über 60 Prozent Wahrscheinlichkeit identifiziert werden. Bei Dämmerung fielen die Werte aber auf schwache 10 bis 20 Prozent. De Maizière hofft nun auf den technischen Fortschritt.

 

Er ignoriert dabei aber offensichtlich einen Bericht, den die US-Normungsbehörde Nist im März 2017 veröffentlichte. Nist prüft regelmäßig die Leistungsfähigkeit von Gesichtserkennungssoftware und hat jetzt zum ersten Mal die Auswertung von Videoaufnahmen untersucht (Face in Video Evaluation, Five). Der Bericht stellte fest, dass das biometrische Erkennen von Personen auf Videoaufnahmen besonders schwierig ist: Die Personen bewegen sich, es befinden sich oft mehrere Personen auf der Aufnahme und die Passanten haben keinen Grund, mit der Kamera zu kooperieren.

 

Gute Ergebnisse könnten nur unter optimalen Bedingungen erzielt werden, so der Bericht. Gemeint sind insbesondere gutes Licht, gute Auflösung der Kamera und Passanten, die in die Kamera schauen. Schnelle Ergebnisse setzten außerdem voraus, dass die Bilder der Passanten nur mit einer kleinen Datenbank abgeglichen werden. Eine solche Fahndung müsste sich also tatsächlich auf Terroristen, Gefährder und Schwerverbrecher konzentrieren.

 

Allerdings seien optimale Bedingungen ein „schwierig zu erreichendes Ziel“, so der Five-Bericht. Wenn Personen permanent nach unten auf ihr Smartphone schauen, bekomme die Kamera keine brauchbaren Bilder. Auch Brillen, Hüte oder Make-up könnten die Gesichtserkennung behindern. Ganz besonders problematisch seien Personen, die die biometrische Kontrolle gezielt sabotieren wollen und deshalb z.B. absichtlich Sonnenbrille oder Mütze tragen. Solche Verhüllungstechniken „können 100-prozentig effektiv sein“, heißt es in dem Bericht.

 

„Wir wollen das unter normalen Bedingungen testen“, sagt ein Sprecher der Bundespolizei. „Die Tester können einen Hut oder Fahrradhelm tragen oder etwas kleiner sein und in der Menge verschwinden.“

 

Der SPD-Politiker Christopher Lauer, früher bei den Piraten Experte für Internet und Datenschutz, ist skeptisch. Das neue System sei fehleranfällig und: „Bei drei Millionen Fahrgästen im Berliner Verkehrsnetz würde eine Fehlerquote von eins zu einhunderttausend dreißig unnötige Einsätze provozieren – pro Tag.“

 


 

Eine Software, die sich leicht missbrauchen lässt

 

Jedes Gesicht ist einzigartig – und lässt sich durch Mustervergleiche einer Identität zuordnen Von Christian Rath und Sebastian Ostendorf

Jedes Gesicht hat charakteristische Merkmale, etwa die Position von Augenhöhlen und Augen, Nasenspitze oder Wangenknochen. Diese Merkmale können biometrisch vermessen und in digitale Daten, in ein sogenanntes Template oder Muster, übersetzt werden. Bei der biometrischen Gesichtserkennung werden nicht die Fotos, sondern zwei Templates miteinander verglichen.

 

Die einfachste Form der Gesichtserkennung ist der Eins-zu-eins-Vergleich, die sogenannte Verifikation. Im Sicherheitsbereich findet man sie zum Beispiel bei der automatisierten Passkontrolle an internationalen Flughäfen. Dabei wird nur festgestellt, ob der Fluggast wirklich seine eigenen Papiere vorzeigt. Hierzu wird bei der Kon­trolle ein aktuelles Foto des Fluggasts angefertigt, dessen Template mit dem im Pass gespeicherten Template des Passfotos verglichen wird.

 

Anspruchsvoller ist der Abgleich von Fotos mit Datenbanken, die sogenannte Identifikation. Hier gibt es im Sicherheitsbereich viele mögliche Anwendungsfälle: Ein Verhafteter weigert sich, seinen (richtigen) Namen zu sagen, das Opfer hat ein Selfie mit dem mutmaßlichen Täter auf seinem Smartphone gespeichert, ein Observationsteam fotografiert eine unbekannte Kontaktperson. Stets stellt sich die Frage: Wer ist die Person? Solche Fotos kann das Bundeskriminalamt (BKA) mit der nationalen polizeilichen Zentraldatenbank abgleichen. Sie enthält unter anderem die digitalisierten Fotos aus der erkennungsdienstlichen Behandlung von rund 3,5 Millionen Menschen. Über das BKA können auch die Bundespolizei und die Landeskriminalämter diese Gesichtserkennung nutzen. In den letzten Jahren hat sich die Zahl der Abfragen bei über 15 000 pro Jahr eingependelt. Die Zahl der Treffer ist aber ziemlich gering und liegt manchmal bei nur rund 2 Prozent.

 

Die Software für das Berliner Projekt soll unter anderem von der sächsischen Firma Cognitec stammen. Ein Großkunde der Dresdner ist das BKA. Die Behörde kaufte Ende 2016 die Software „Examiner“, die Straftäter im öffentlichen Raum möglichst schnell identifizieren soll.

 

Weltweit boomt das Geschäft mit Gesichtserkennungssoftware. Lukrative Aufträge durch Regierungen locken, die im Zeichen der Terrorabwehr potenzielle Attentäter schon früh aus Menschenmassen herausfiltern wollen. 2010 kaufte der französische Konzern Safran für 1,09 Milliarden Dollar die US-Firma L-1 Identity Solutions. L-1 hat auch die Grenzabfertigung Easy-Pass am Frankfurter Flughafen installiert.

 

Doch vor Missbrauch wird gewarnt. 2016 entwickelten russische Programmierer die App FindFace. Sobald Nutzer Fotos einer Person in die App hochladen, durchforstet die Anwendung mittels Gesichtserkennung das soziale Netzwerk VKontakte, das russische Pendant zu Facebook. Im Bruchteil von Sekunden werden Informationen über Fremde zusammengetragen. Dem Portal „Datenschutz Nord Gruppe“ zufolge setzen russische Strafverfolger die App auch ein, um Demons­tranten zu identifizieren. Angeblich wurden bereits Dutzende Verfahren gegen Teilnehmer der Massenproteste am 26. März und 12. Juni auf dieser Grundlage eingeleitet.

 


 

„Abgleich wäre ein Problem“

Datenschützerin Renate Samson über die britische Praxis

Frau Samson, die erste Begegnung mit biometrischen Kameras haben viele Deutsche schon bei der Einreise am Londoner Flughafen. Wird man in Großbritannien auf Schritt und Tritt überwacht?


Es gibt keine offizielle biometrische Strategie im Vereinigten Königreich. Die Regierung arbeitet seit einigen Jahren daran, bislang ohne Ergebnis. Uns ist keine breit angelegte Gesichtserkennung bekannt – allerdings erfuhr die Öffentlichkeit dreimal im Nachhinein davon, beim Notting Hill Carnival , beim Champions-League-Finale in Cardiff und bei einem Festival in Nordengland. Der Aufschrei war jedes Mal groß.


Ehrlich? Und das in einem Land, in dem jede Straße und jede Kneipe kontrolliert wird mit CCTV-Überwachungskameras?


In Großbritannien wird jeder Verhaftete fotografiert und sein Foto landet in einer biometrischen Datenbank – selbst, wenn er später als unschuldig wieder freigelassen wird. Die nationale Datenbank verfügt über insgesamt 19 Millionen solcher Personenfotos. Es wäre datenschutzrechtlich ein Problem, die alle ständig mit CCTV-Fotos abzugleichen.


Und an Flughäfen? Bei vielen müssen sich Passagiere inzwischen biometrisch filmen lassen, um zur Sicherheitskontrolle zu gelangen.

Diese Aufnahmen werden aber nur in diesem internen Bereich genutzt und nicht extern abgeglichen. Da haben wir keine Bedenken.


Parkplätze, Tankstellen und ganze Straßen werden in Großbritannien mit Kennzeichenerkennung überwacht. Stört das niemanden?


Doch. Aber viele Autofahrer bemerken das gar nicht. Und andere sagen sich: Es hilft, Verbrechen zu verhindern. Dabei ist das Ausmaß inzwischen immens – auf britischen Straßen werden jeden Tag 30 bis 35 Millionen Kennzeichen erfasst und ein Jahr lang gespeichert. Das ist aus unserer Sicht ein Problem.


Ist denn Kennzeichenerkennung problematischer als das Filmen von Menschen auf Straßen und in Kneipen?


Daran haben wir uns schlichtweg gewöhnt. CCTV-Überwachungskameras gibt es in Großbritannien flächendeckend seit mehr als zwei Jahrzehnten. Allerdings denken vermehrt Städte darüber nach, sie aus Kostengründen abzubauen.


Und das in Zeiten des Terrors?


Kameras mögen bei der Aufklärung von Terroranschlägen helfen. Sie haben aber nachweislich noch nie einen solchen verhindert. Studien zeigen, dass sie nur die Zahl der Autoaufbrüche auf Parkplätzen reduziert haben.


Interview: Michael Pohl