Frankfurt testet KI-Gesichtserkennung im Rotlichtviertel. Kritiker warnen vor Massenüberwachung im öffentlichen Raum.
In Frankfurt am Main wird das Gebiet rund um den Frankfurter Hauptbahnhof mit seinem Rotlichtviertel zum Reallabor für automatisierte Gesichtserkennung im öffentlichen Raum. Was offiziell der Verbrechensbekämpfung dient, trifft damit einen Ort, an dem Diskretion essenziell ist. Zwischen Bordellen, Beratungsstellen und Drogenszene geraten hier tausende Menschen täglich ins Raster der Polizei-KI. Bürgerrechtler schlagen Alarm.
Frankfurt als Pilotregion für biometrische Überwachung
Die Gesichtserkennung im Frankfurter Bahnhofsviertel basiert auf einem dichten Netz von Kameras. Rund 50 Kameras erfassen dort den öffentlichen Raum, ihre Bilder werden zentral ausgewertet. Insgesamt betreibt die Polizei in Frankfurt etwa 70 Kameras. 29 davon stehen im Bahnhofsviertel, 19 sind für automatisierte Gesichtserkennung geeignet.
Eine Software extrahiert dabei biometrische Merkmale aus Gesichtern, erstellt daraus digitale Profile und gleicht diese mit polizeilichen Datenbanken ab. Gesucht wird offiziell nach Terrorverdächtigen, Vermissten oder Opfern schwerer Straftaten.
In der Praxis bedeutet das jedoch, dass alle Passanten ins Raster geraten, sobald sie sich im Sichtfeld der Kameras bewegen. Technisch lässt sich nicht verhindern, dass dabei auch tausende unbeteiligte Menschen erfasst und analysiert werden. Wie netzpolitik.org berichtet, erfasst die Videoüberwachung im Bahnhofsviertel große Teile des öffentlichen Raums und wird bereits für automatisierte Gesichtserkennung genutzt.
Gesichtserkennung im Frankfurter Rotlichtviertel: Überwachung im sensibelsten Umfeld
Problematisch ist besonders der Einsatz der Gesichtserkennung im Frankfurter Rotlichtviertel, weil die Kameras auch sensible Bereiche erfassen. Mindestens 16 Bordelle liegen im Sichtbereich der Überwachung, ebenso eine Beratungsstelle für Sexarbeiter. In diesem Umfeld ist Anonymität entscheidend. Die Gesellschaft für Freiheitsrechte (GFF) warnt, dass viele Betroffene die Überwachung als belastend empfinden und ihre Anonymität gefährdet sehen.
Kritiker sprechen deshalb von einem massiven Eingriff in die Privatsphäre. Eine Technologie, die eigentlich Sicherheit schaffen soll, wird so zu einer Hürde.
Hessen als Vorreiter: Der politische Rahmen
Hessen gilt mit seinem Projekt ‚Gesichtserkennung im Frankfurter Bahnhofsviertel‘ als erstes Bundesland, das biometrische Echtzeit-Überwachung im öffentlichen Raum einsetzt. Zuvor wurde die Technik bereits am Berliner Bahnhof Südkreuz getestet. Grundlage ist eine Änderung des Hessischen Sicherheits- und Ordnungsgesetzes.
Bereits seit 2025 werden im Bahnhofsviertel die Bilder von rund 50 Kameras ausgewertet. Die Software analysiert dabei die Gesichter aller erfassten Personen und gleicht sie mit Fahndungsdatenbanken ab. Offiziell erfolgt jede Fahndung auf richterliche Anordnung, technisch ist die massenhafte Erfassung jedoch unvermeidbar.
Das System läuft seit Juli 2025 im Dauerbetrieb. Aktiv zur Fahndung wurde die Gesichtserkennung bisher jedoch nur in rund einem Dutzend Fällen mit lediglich einem bestätigten Treffer eingesetzt, bei dem eine vermisste Jugendliche identifiziert wurde.
Kritiker sehen darin einen grundlegenden Wandel. Was als gezielte Fahndung beginnt, könnte sich schrittweise zu flächendeckender Überwachung entwickeln.
Mobile Gesichtserkennung: Die Polizei-App
Neben der stationären Videoüberwachung testet die Polizei eine zweite Form biometrischer Identifizierung. Seit Ende 2025 nutzen Beamte eine mobile Anwendung, um Personen bei Kontrollen zu identifizieren. Dabei wird ein Foto aufgenommen und direkt mit einer Datenbank von mehr als 5,3 Millionen gespeicherten Gesichtern abgeglichen. Bei einem Treffer erscheinen Identitätsdaten wie Name, Geburtsdatum und Staatsangehörigkeit auf dem Gerät.
Offiziell folgt darauf eine Überprüfung durch den Beamten. Dennoch verschiebt sich die Logik der Polizeiarbeit. Identität wird nicht mehr nur festgestellt, sondern aktiv gesucht, auch ohne klassischen Verdacht.
Grundrechte unter Druck
Die Gesichtserkennung im Frankfurter Rotlichtviertel steht massiv in der Kritik. Bürgerrechtsorganisationen wie die Gesellschaft für Freiheitsrechte (GFF) und Amnesty International warnen vor einem tiefgreifenden Eingriff in die informationelle Selbstbestimmung, denn die Technologie erfasst nicht nur Verdächtige, sondern systematisch auch unbeteiligte Personen.
Hinzu kommt die Gefahr von Fehlidentifikationen. Studien zeigen, dass biometrische Systeme je nach Geschlecht, Hautfarbe oder Alter unterschiedlich zuverlässig arbeiten und bestimmte Gruppen häufiger falsch erkennen. Die Ursache liegt dabei oftmals in unausgewogenen Trainingsdaten, die bestimmte Gruppen schlechter abbilden. Für Betroffene kann das unmittelbare Folgen haben, von zusätzlichen Polizeikontrollen bis hin zu falschen Verdächtigungen.
Auch die rechtliche Grundlage ist umstritten. Datenschützer kritisieren unklare Regeln, fehlende Transparenz und unzureichende Kontrollmechanismen.
Gegen die biometrische Überwachung läuft inzwischen auch eine Klage. Die Gesellschaft für Freiheitsrechte (GFF) hat gemeinsam mit Vertretern des Vereins Doña Carmen vor dem Verwaltungsgericht Frankfurt Klage eingereicht. Ziel ist es, die rechtliche Grundlage der Gesichtserkennung überprüfen zu lassen und eine Entscheidung des Bundesverfassungsgerichts zu erreichen. Die Kläger sehen in der Maßnahme einen unverhältnismäßigen Eingriff in die Grundrechte, da auch zahlreiche unbeteiligte Personen erfasst werden.
Alltag unter permanenter Beobachtung
Im Bereich rund um den Hauptbahnhof, einschließlich Rotlichtviertel, erfassen Kameras fortlaufend Bilder des öffentlichen Raums, aus denen gezielt Gesichter für die Analyse herausgefiltert und gespeichert werden. Die Aufnahmen werden in der Regel 14 Tage gespeichert, bei Bedarf auch länger. Dabei bleibt für viele unklar, wann genau die Software aktiv nach Personen sucht und welche Daten die Behörden verarbeiten.
Das führt zu einem diffusen Gefühl permanenter Beobachtung. Menschen passen ihr Verhalten an, meiden bestimmte Orte oder versuchen, unauffällig zu bleiben. Besonders im Rotlichtviertel trifft das sensible Gruppen wie Sexarbeiter, Migranten, Konsumenten und Menschen, die auf anonyme Beratung angewiesen sind.
Mehr Kontrolle, wenig Veränderung
Die Gesichtserkennung ist Teil eines umfassenden Maßnahmenpakets. Dazu gehören verdachtsunabhängige Kontrollen, Waffenverbotszonen und regelmäßige Polizeieinsätze. Trotz dieser Maßnahmen bleiben die strukturellen Probleme des Viertels bestehen. Offene Drogenszenen, soziale Spannungen und prekäre Lebenslagen prägen das Bild.
Kritiker werfen der Politik vor, auf Überwachung statt auf soziale Lösungen zu setzen. Die Gesichtserkennung im Frankfurter Rotlichtviertel zeigt, wie der öffentliche Raum zunehmend seine Anonymität verliert.


















