Fehlerrate Gesichtserkennung von Menschenmassen liegt bei 92 Prozent

2017 wurden in Cardiff durch eine automatische Gesichtserkennung in Echtzeitmehr mehr als 2.000 Menschen versehentlich als Kriminelle erkannt.

Gesichtserkennung

Erste Ergebnisse eines Praxistests zur automatischen Gesichtserkennung in Echtzeit, den die Waliser Polizei seit Juni 2017 durchführt, lieferten eine hohe Fehlerquote. Dabei sollten Kameras die Gesichter der Besucher erfassen und diese automatisiert mit den aktuellen Fahndungslisten abgleichen. So hat die Software beim Finale der Champions League 2017 im walisischen Cardiff bei mehr als 2000 Personen fälschlich Alarm ausgelöst. Kein System sei hundertprozentig sicher, verteidigte es hingegen die Polizei, berichtet The Guardian.

Automatische Gesichtserkennung machte viele Fehler

Ein von der walisischen Polizei verwendetes System zur Gesichtserkennung hat beim Finale der Champions League 2017, als rund 170.000 Personen Cardiff besuchten, um das Fußballspiel zwischen Real Madrid und Juventus anzuschauen, davon 2470 Menschen fälschlicherweise als potentielle Verdächtige angezeigt. Konkret traf das aber nur auf 173 Besucher zu. Daraus resultiert die deutlich hohe Fehlerquote von 92 Prozent.

Die südwalisische Polizei räumte ein, dass „kein Gesichtserkennungssystem zu 100% korrekt ist“, immerhin habe man seit der Einführung des Systems mehr als 2000 echte Kriminelle identifizieren können, wodurch es zu 450 Festnahmen kam. Die Polizei gab dazu bekannt: „Zu den resultierenden Verurteilungen gehören sechs Jahre Gefängnis für Raub und viereinhalb Jahre Haft für Diebstahl“.

Fehlerquote von 92

Es hieß auch, dass niemand infolge eines derartigen „False Positives“ festgenommen worden sei. Aus der Öffentlichkeit habe sich wegen der Gesichtserkennung keiner beschwert. Die hohe Fehlerrate beim Finale der Champions League sei auf eine „schlechte Qualität“ der Fotos zurückzuführen. Diese hatte Europas Fußballverband UEFA, Interpol und diverse andere Quellen geliefert. Bei anderen durchgeführten Tests fielen die Ergebnisse ähnlich schlecht aus: bei einem Boxkampf waren 90 Prozent der „erkannten“ Kriminellen falsch, bei einem Rugby-Match sank die Fehlerquote dann aber bereits auf 87 Prozent.


Ein höchst ungenaues Polizeiwerkzeug

Kritik an diesem System kommt von der Bürgerrechtsbewegung Big Brother Watch. „Die automatische Gesichtserkennung in Echtzeit ist nicht nur eine Gefahr für Bürgerrechte, sie ist auch ein gefährlich ungenaues Polizeiwerkzeug.„, posteten sie auf Twitter. Matt Jukes, Polizeipräsident in South Wales hält dagegen und meint. „Wir brauchen Technologie, wenn tausende Menschen in Massen kommen. Und wir die Sicherheit aller gewährleisten wollen und damit haben wir gute Erfahrungen gemacht“.

Bildquelle: geralt, thx! (CC0 Public Domain)

Tarnkappe.info

Ich bin bereits seit Januar 2016 Tarnkappen-Autor. Eingestiegen bin ich zunächst mit Buch-Rezensionen. Inzwischen schreibe ich bevorzugt über juristische Themen, wie P2P-Fälle, greife aber auch andere Netzthemen, wie Cybercrime, auf. Meine Interessen beziehen sich hauptsächlich auf Literatur.