Obwohl die derzeitige Überwachungstechnik zur Gesichtserkennung verfassungsrechtlich bedenklich ist, setzt sie die Polizei weiterhin ein.
Die Hamburger Polizei will die Überwachungstechnik zur Gesichtserkennung in Bild- und Videoaufnahmen, die sie im Zuge des G20-Gipfels im Nachgang verwendet hat, nun dauerhaft einsetzen. Gesichter von Verdächtigen sollen so erkannt und verfolgt werden, bestätigt Polizeisprecher Timo Zill der taz. Johannes Caspar, der hamburgische Datenschutzbeauftragte, weist darauf hin, dass er den Einsatz der Technologie für verfassungsrechtlich bedenklich hält. Er prüft es, dagegen vorzugehen.
Hamburger Polizei hält am Verfahren zur Gesichtserkennung fest
Bereits im März teilte Kriminaldirektor Jan Hieber auf der Sitzung des Sonderausschusses „Gewalttätige Ausschreitungen rund um den G20-Gipfel in Hamburg„ mit, dass zur Verfolgung von Straftaten beim G20-Gipfel die Hamburger Polizei mittlerweile Gesichtserkennung einsetzen würde. Mit der Technik wäre es zudem möglich, auffällige Merkmale zu markieren und in Videodateien zu suchen. Damals hatte der Senat nach den Ausschreitungen die Sonderkommission „Schwarzer Block“ ins Leben gerufen. Bis zu 170 Beamte ermittelten in der Sache und sie verfügten laut Hieber über Bilder und Videos in einer Größenordnung von über 100 Terabyte.
Nun soll diese Technologie auch weiterhin zum Einsatz kommen. Die Polizei will die Anwendung sogar ausweiten, obwohl der Ausnahmezustand des G20-Gipfels, der diese Verwendung rechtfertigte, längst vorbei ist. Gemäß taz ermöglicht diese Art der Überwachungstechnologie sowohl eine Inverssuche, den Abgleich bereits vorhandener Daten. Also solcher, die in Gefährderdateien oder Melderegistern namentlich erfasst sind. Inklusive aktuelle Videoaufnahmen, als auch Standortdaten, Verhaltensprofile sowie soziale Kontakte. Durch die Verknüpfung kann man unbekannte Straftäter, von denen lediglich Gesichtsaufnahmen vorliegen, aufzpüren. Keine Angaben liegen über die tatsächlich geplante Nutzung der Überwachungstechnik vor. Es ist unbekannt, ob auch eine Inverssuche tatsächlich zur Anwendung kommt. Weder der Hersteller der Software, noch deren Namen wurden preisgegeben.
Kritik von Johannes Caspar
Johannes Caspar kritisiert den Einsatz dieser Überwachungstechnik bei der Polizei. Zwar würden bisher noch keine Anhaltspunkte dafür vorliegen, „dass Gefährder tatsächlich durchgeprüft werden. Es besteht jedoch ein hohes abstraktes Gefährdungspotenzial mit Blick auf das informationelle Selbstbestimmungsrecht.“ Zudem würde die automatisierte Gesichtserkennung ein hohes Maß auch an personenbezogenen Daten mit einbeziehen. „Wenn das Verfahren dazu führt, dass von allen auf dem Bildmaterial abgebildeten Personen individuelle Gesichts-IDs erstellt werden, über die eine biometrische Analyse läuft, werden massenhaft Daten Unbeteiligter über längere Zeiträume in Datenbanken gespeichert.“ Man informiert die Betroffenen nicht. Somit kann man nicht gerichtlich dagegen vorgehen, beanstandet Caspar gegenüber taz.
Auch am Bahnhof Südkreuz läuft seit dem 01.08.2017 ein gleichartiger Versuch, nur in Echtzeit. In einer ersten Versuchsreihe hat man anhand von 275 freiwilligen Testpersonen die Möglichkeit erprobt, aus Menschenmassen heraus, Personen per Kamera automatisch zu erkennen, deren Gesichter vorhanden sind. Gleich nach dem Abschluss der ersten Testphase zur Gesichtserkennung schließt sich voraussichtlich Ende September ein weiterer Testlauf an. Darin soll festgestellt werden, wie gut Computerprogramme festgehaltene Situationen und Gegenstände analysieren können. Datenschützer und Digitalverbände kritisieren ebenso dieses Projekt.
Bildquelle: jogi031, thx! (CC0 1.0 PD)
Tarnkappe.info