Gericht stoppt Haftbefehl: Richter kritisiert intransparente Polizeisoftware als unzureichende Grundlage für U-Haft.
Das AG Reutlingen verweigert die Untersuchungshaft für einen Beschuldigten, weil eine KI-basierte Gesichtserkennung nicht nachvollziehbar dokumentiert wurde. „Gericht stoppt Haftbefehl“: Der Beschluss vom 11. Februar 2026 (5 Gs 19/26) zieht eine bemerkenswerte Grenze gegen algorithmische Blackbox-Ermittlungen und sendet damit ein weitreichendes Signal über den konkreten Einzelfall hinaus.
Die deutsche Strafjustiz hat einer KI-gestützten Gesichtserkennung gerade einen empfindlichen Dämpfer verpasst. Mit einem bemerkenswert scharf formulierten Beschluss hat das Amtsgericht Reutlingen einen beantragten Haftbefehl abgelehnt, weil die zentrale Identifizierung des Beschuldigten auf einer nicht nachvollziehbar dokumentierten Gesichtserkennungssoftware beruhte.
Die Ermittler wollten einen Menschen auf Grundlage eines algorithmischen Treffers in Untersuchungshaft bringen, konnten dem Gericht aber offenbar nicht einmal schlüssig erklären, wie die eingesetzte KI überhaupt arbeitet. Der Beschluss vom 11. Februar 2026 (Az. 5 Gs 19/26) dürfte deshalb über Baden-Württemberg hinaus für Aufmerksamkeit sorgen. Die Entscheidung formuliert erstmals ungewöhnlich klar, welchen rechtsstaatlichen Anforderungen sich KI-Gesichtserkennung in Strafverfahren stellen muss.
Parfümdiebstahl führt zu KI-Ermittlung
Ausgangspunkt war ein Vorfall in einem Drogeriemarkt. Zwei Mitarbeiterinnen sichteten Videoaufzeichnungen und bemerkten dabei zufällig eine Person, die mehrere Frauendüfte entwendet haben soll. Später sei dieselbe Person erneut im Laden aufgetaucht. Als Mitarbeiterinnen versuchten, sie festzuhalten, soll die Person mit einem Regenschirm um sich geschlagen haben und anschließend geflüchtet sein.
Die Polizei leitete daraufhin eine biometrische Gesichtsanalyse des Videomaterials ein. Eine Gesichtserkennungssoftware lieferte einen Treffer auf einen bereits polizeibekannten Mann, der schon wegen eines anderen Diebstahlsverfahrens zur Fahndung ausgeschrieben gewesen sei. Auf Grundlage dieser Erkenntnisse beantragte die Staatsanwaltschaft den Erlass eines Haftbefehls wegen räuberischen Diebstahls. Das Amtsgericht Reutlingen lehnte den Antrag jedoch ab. Hinsichtlich der fehlenden Voraussetzungen fehle es „derzeit an dringendem Tatverdacht„.
Richter spricht von „ominöser Gesichtserkennungssoftware“
Das AG Reutlingen stellt die Ermittlungsgrundlage in seiner Entscheidung ungewöhnlich deutlich infrage. Der Richter spricht von einer „ominösen Gesichtserkennungssoftware“ und kritisiert, dass weder Funktionsweise noch Algorithmus, Referenzdaten oder Qualitätsparameter der eingesetzten KI nachvollziehbar dokumentiert worden seien. Die pauschale Mitteilung der Ermittlungsbehörden, es sei eine „verbesserte“ Software verwendet worden, reiche ausdrücklich nicht aus. Das Gericht formuliert:
„Die offene Frage, wie die Software arbeitet, welche Referenzdaten genutzt wurden und wie hoch die Fehlerrate ist, gehört zum Kern der Beweiswürdigung.“
Wenn also eine KI-gestützte Identifizierung Grundlage eines Freiheitsentzugs werden soll, muss folglich die Technik dahinter überprüfbar sein. Eine Blackbox-KI reicht dafür nicht aus.
KI-Treffer sind laut Gericht nur Ermittlungsansätze
Das Gericht formuliert dabei eine weitreichende grundsätzliche Einordnung. Der Richter verdeutlicht, dass technisch erzeugte Treffer typischerweise „allenfalls Ermittlungsansätze“ liefern und keine gerichtsfeste Identifizierung ersetzen.
Damit stellt sich das Amtsgericht frontal gegen einen Trend, der international bereits sichtbar ist. Polizeibehörden verlassen sich zunehmend auf automatisierte Gesichtserkennungssysteme, obwohl diese wegen möglicher Fehlidentifizierungen seit Jahren in der Kritik stehen. Der Aachener Strafverteidiger und IT-Rechtler Jens Ferner bewertet diesen Punkt als zentrale Botschaft der Entscheidung. Auf seiner Website schreibt er:
„Algorithmische Treffer sind keine stummen Zeugen, sondern Beweisanzeichen, deren Belastbarkeit sich an denselben Standards messen lassen muss wie andere Sachbeweise. […] Wo diese Grundlagen fehlen und weitere individualisierende Anknüpfungstatsachen nicht vorhanden sind, scheitert der dringende Tatverdacht.“
Das trifft den Kern des Problems ziemlich präzise.
Gericht sieht erhebliche Defizite bei den Ermittlungen
Offenbar fehlte es im Fall weitgehend an klassischer Ermittlungsarbeit. Laut Gericht mangelte es an nahezu sämtlichen objektiven Ermittlungsansätzen. Weder wurde eine Wahllichtbildvorlage durchgeführt, noch lagen DNA-Spuren, eindeutige Tätermerkmale oder eine gesicherte Zuordnung von Kleidung und möglicher Beute vor. Auch Kommunikations- oder Standortdaten sowie eine nachvollziehbare Spurensicherung fanden sich nach Aktenlage nicht.
Der Verdacht stützte sich damit im Wesentlichen auf die KI-Gesichtserkennung und darauf, dass der Beschuldigte bereits als „polizeibekannt“ galt. Dieser Argumentation erteilt das Gericht allerdings eine klare Absage. Eine polizeiliche Vorbekanntheit ersetze keinen dringenden Tatverdacht, heißt es sinngemäß in der Entscheidung. Auch interne Einstufungen oder Hinweise auf „ähnlich gelagerte“ Taten genügten nicht, um Untersuchungshaft zu rechtfertigen.
Ferner spricht in seiner Analyse deshalb von einer „Absage an die rechtsstaatlich heikle Tendenz, polizeiliche Profilbildung in prozessuale Verdachtsgrade zu übersetzen“.
Gericht stoppt Haftbefehl wegen KI-Gesichtserkennung
Die Entscheidung könnte sich als wegweisend für den Umgang deutscher Gerichte mit KI-gestützter Gesichtserkennung erweisen, denn sie betrifft grundsätzlich den Einsatz algorithmischer Identifizierungssysteme im Strafverfahren. Das Gericht zieht hier eine rote Linie für den Einsatz biometrischer Überwachungssysteme im Strafverfahren.
Der Beschluss verdeutlicht, dass ein KI-Treffer keine Beweise ersetzt und Gesichtserkennung keine automatische Täteridentifikation darstellt. Algorithmisch erzeugte Wahrscheinlichkeiten seien nicht mit strafprozessualer Gewissheit gleichzusetzen. Freiheitsentzug verlange vielmehr überprüfbare Tatsachen statt bloßer algorithmischer Treffer.
Gewicht hat dabei auch der rechtsstaatliche Fokus der Entscheidung. Das Gericht verweist ausdrücklich auf die Risiken möglicher Fehlerkennungen und die schwerwiegenden Folgen einer Untersuchungshaft. Schon deshalb sei bei KI-gestützter Gesichtserkennung „besondere Zurückhaltung geboten“. RA Jens Ferner verweist auf die Faustregel:
„Je tiefer der drohende Grundrechtseingriff, desto höher die Anforderungen an Transparenz und Validität der algorithmischen Identifikationsgrundlage.“
Die Entscheidung des AG Reutlingen beschränkt sich dabei nicht allein auf die Kritik an der KI-gestützten Identifizierung. Der Beschluss arbeitet vielmehr auf zwei Ebenen erhebliche Defizite heraus. Einerseits fehle es an einer belastbaren Grundlage für die biometrische Identifizierung des Beschuldigten, andererseits sei nach Auffassung des Gerichts selbst der Vorwurf des räuberischen Diebstahls nicht mit der erforderlichen Wahrscheinlichkeit tragfähig.
Dem Gericht bereitete somit nicht nur die fragwürdige KI-Identifizierung erhebliche Probleme. Auch der Vorwurf des räuberischen Diebstahls nach § 252 StGB wackelte nach Ansicht des Ermittlungsrichters erheblich. Für eine entsprechende Qualifikation hätte feststehen müssen, dass die beschuldigte Person noch im Besitz der mutmaßlichen Beute war und Gewalt einsetzte, um diese zu sichern. Dies blieb nach Aktenlage jedoch unklar.
Hinzu kam, dass dem Ermittlungsrichter das vollständige Videomaterial offenbar nicht vorlag und obendrein nachvollziehbare Angaben zum zeitlichen Ablauf fehlten. Das Gericht hielt es daher durchaus für möglich, dass die Person den Laden später erneut, möglicherweise sogar ohne Beute, betreten hatte. Der feststehende Kern des Geschehens beschreibe letztlich eher eine Fluchtreaktion nach einer Ansprache im Geschäft als einen sicher nachweisbaren räuberischen Diebstahl.

KI-Gesichtserkennung gerät zunehmend unter Druck
Die europäische KI-Verordnung (AI Act) reagiert bereits auf die Risiken biometrischer Überwachungssysteme und differenziert entsprechend beim Einsatz biometrischer Systeme im Strafverfolgungsbereich. Während bestimmte Formen biometrischer Echtzeitüberwachung grundsätzlich verboten sind, werden andere KI-gestützte Identifizierungs- und Gesichtserkennungssysteme als Hochrisiko-Technologien eingestuft oder unterliegen besonderen Transparenz- und Dokumentationspflichten.
Das AG Reutlingen liefert nun dazu die strafprozessuale Übersetzung dieser Debatte. Wenn Behörden KI einsetzen, müssen sie deren Ergebnisse nachvollziehbar machen. Oder wie Jens Ferner formuliert:
„Die Freiheit des Beschuldigten lässt sich nicht auf ein opakes Softwareergebnis stützen.“
Transparenz statt Blackbox-KI
Der Richter macht mit der Entscheidung klar, dass algorithmische Treffer keine gerichtsfesten Identifizierungen ersetzen. Wer Menschen mithilfe biometrischer Software identifizieren will, muss nachvollziehbar darlegen können, wie das eingesetzte System funktioniert, auf welcher Datenbasis die Auswertung erfolgt, wie hoch mögliche Fehlerraten ausfallen und auf welche Weise die erzielten Ergebnisse überprüft und abgesichert wurden.
Fehlt diese Transparenz, bleibt der Treffer ein Ermittlungsansatz, aber eben keine ausreichende Grundlage für Untersuchungshaft. Der Beschluss im Fall „Gericht stoppt Haftbefehl“ ist damit nicht nur eine Ohrfeige für nachlässige Ermittlungsarbeit, sondern auch ein Warnsignal gegen den unkritischen Einsatz algorithmischer Identifizierungssysteme bei Polizei und Strafverfolgung.
Mit dem Fall musste sich inzwischen auch das LG Tübingen (9 Qs 34/26) befassen; eine veröffentlichte Begründung des LG liegt bisher jedoch nicht vor.

















