Wales: Fehlerrate bei Gesichtserkennung von Menschenmassen liegt bei 92 Prozent

Erste Ergebnisse eines Praxistests zur automatischen Gesichtserkennung in Echtzeit, den die Waliser Polizei seit Juni 2017 durchführt, lieferten eine hohe Fehlerquote. Dabei sollten Kameras die Gesichter der Besucher erfassen und diese automatisiert mit den aktuellen Fahndungslisten abgleichen. So hat die Software beim Finale der Champions League 2017 im walisischen Cardiff bei mehr als 2000 Personen fälschlich Alarm ausgelöst. Kein System sei hundertprozentig sicher, verteidigte es hingegen die Polizei, berichtet The Guardian.

Ein von der walisischen Polizei verwendetes System zur Gesichtserkennung hat beim Finale der Champions League 2017, als rund 170.000 Personen Cardiff besuchten, um das Fußballspiel zwischen Real Madrid und Juventus anzuschauen, davon 2470 Menschen fälschlicherweise als potentielle Verdächtige angezeigt. Konkret traf das aber nur auf 173 Besucher zu. Daraus resultiert die deutlich hohe Fehlerquote von 92 Prozent.


Die südwalisische Polizei räumte ein, dass „kein Gesichtserkennungssystem zu 100% korrekt ist“, immerhin habe man seit der Einführung des Systems mehr als 2000 echte Kriminelle identifizieren können, wodurch es zu 450 Festnahmen kam. Die Polizei gab dazu bekannt: „Zu den resultierenden Verurteilungen gehören sechs Jahre Gefängnis für Raub und viereinhalb Jahre Haft für Diebstahl“. Es hieß auch, dass niemand infolge eines derartigen „False Positives“ festgenommen worden sei und auch aus der Öffentlichkeit habe sich keiner beschwert. Die hohe Fehlerrate beim Finale der Champions League sei auf eine „schlechte Qualität“ der Fotos zurückzuführen, die von Europas Fußballverband UEFA, Interpol und anderen diversen Quellen geliefert worden seien. Bei anderen durchgeführten Tests fielen die Ergebnisse ähnlich schlecht aus: bei einem Boxkampf waren 90 Prozent der „erkannten“ Kriminellen falsch, bei einem Rugby-Match sank die Fehlerquote dann aber bereits auf 87 Prozent.

Kritik an diesem System kommt von der Bürgerrechtsbewegung Big Brother Watch: „Die automatische Gesichtserkennung in Echtzeit ist nicht nur eine Gefahr für Bürgerrechte, sie ist auch ein gefährlich ungenaues Polizeiwerkzeug.“, posteten sie auf Twitter. Matt Jukes, Polizeipräsident in South Wales hält dagegen und meint: „Wir brauchen Technologie, wenn tausende Menschen in Massen kommen und wir die Sicherheit aller gewährleisten wollen und damit haben wir gute Erfahrungen gemacht“.

Bildquelle: geralt, thx! (CC0 Public Domain)

Vielleicht gefällt dir auch

3 Kommentare

  1. Pudelmütze sagt:

    Diese Nazischeisse wird hier in Berlin sicher ganz anders dargestellt, darauf kann man jetzt schon wetten.

  2. Ein voller Erfolg sagt:

    Na, das wird sich bestimmt als voller Erfolg feiern lassen, wenn man damit freilaufende Verbrecher fangen konnte.

    Die Fehlquote ist völlig uninteressant, denn die kann man durch bessere Algorithmen steigern.

  3. Albus.Dumbeldore sagt:

    Die die Software besser in China oder von der NSA entwickeln lassen sollen .. ;-)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.