Mit Exposing.ai lässt sich feststellen, ob eigene Flickr-Fotos zum Gesichtserkennungssystem-Training missbraucht worden sind.
Tausende von Hobbyfotografen aus der ganzen Welt machen Fotos von ihren Gesichtern mit verschiedenen Mimiken aus unterschiedlichen Perspektiven. Millionen von solchen Bildern speisen so eine Vielzahl von Online-Quellen, wie die Foto-Plattform Flickr. Damit liefern sie dem Hersteller einer Software zur Gesichtserkennung wichtige Daten, die zum Systemtraining eingesetzt werden. Aktuell haben Forscher ein Online-Tool, namens Exposing.ai erstellt, mit dem Benutzer viele dieser Flickr-Bildersammlungen nach ihren eigenen Fotos durchsuchen können, berichtet The New York Times.
Das Projekt Exposing.ai gründeten Adam Harvey und Jules LaPlace. Die Projektfinanzierung übernahmen Fellowships der Karlsruhe HfG Critical AI Group und das Weizenbaum Institut in Berlin. Gemeinsam mit Liz O’Sullivan und dem Surveillance Technology Oversight Project (STOP) erstellte man aktuell die Version, die nun online und für alle verfügbar ist. Derzeitig stehen 3.630.582 Flickr-Fotos aus sechs Bilddatensätzen zum Durchsuchen zur Verfügung, die man zum Trainieren, Testen oder Verbessern von Gesichtserkennungstechnologien verwendet. Das Projekt Exposing.ai soll Nutzern dazu dienen, festzustellen, ob auch ihre privaten Fotos in den zum Gesichtserkennungssystem-Training bestimmten Datenbanken gelandet sind.
Exposing.ai deckt Missbrauch von Flickr-Fotos zwecks Gesichtserkennungssystem-Training auf
Das Tool vergleicht Bilder aus dem Flickr-Online-Foto-Sharing-Dienst. Es bietet einen Einblick in die riesigen Datenmengen, die zum Aufbau einer Vielzahl von KI-Technologien erforderlich sind, von der Gesichtserkennung bis hin zu Online- Chatbots. Die dabei berücksichtigten Fotos reichen vom Jahr 2004 bis zu 2020. Exposing.ai wird ausgeführt wie eine Suchmaschine. Man gibt die URL eines eigenen Flickr-Fotos ein. Daraufhin durchsucht Exposing.ai die Datenbanken und findet heraus, falls das Foto zum Training der Geschichtserkennungs-Software verwendet worden ist.
Fotomissbrauch: intimste Momente werden zur Waffe
Eine hochwertige Geschichtserkennungs-Software sollte jedes Gesicht korrekt auslesen und tracken können. Die Biometrie von Gesichtern ist von Mensch zu Mensch jedoch verschieden. Zudem sind noch ethnospezifische Merkmale zu berücksichtigen. Die Software wird dabei auf jede einzelne dieser Besonderheiten sensibilisiert. Darum ist zur Entwicklung einer Gesichtserkennungs-Software ein intensives Training anhand zahlreicher und vielfältiger Gesichter-Fotos Voraussetzung. Zurückgegriffen haben die Entwickler dazu auf bereits vorhandene Fotos von Online-Quellen, wie Flickr. Das Problem hierbei ist, dass die Menschen möglicherweise nicht wissen, dass sie zur KI-Ausbildung beigetragen haben. Sie reagieren zudem offenbar völlig unterschiedlich auf solche Offenbarungen. Was für manche noch als Kuriosität durchgeht, ist für andere schon extrem gruselig. „Menschen müssen realisieren, dass ihre intimsten Momente zu einer Waffe gemacht werden“, sagt O’Sullivan zur New York Times.
Flitterwochenfotos dienten zum Trainieren von Gesichtserkennungssystemen
The New York Times verweist hierbei auf das Beispiel von Brett Gaylor, einem Dokumentarfilmer aus Victoria, British Columbia. Er lud im Jahr 2006 seine Flitterwochenfotos auf Flickr hoch. Mithilfe einer frühen Version von Exposing.ai stellte er dann ca. 15 Jahre später fest, dass man Hunderte dieser Fotos zum Trainieren von Gesichtserkennungssystemen auf der ganzen Welt verwendet hat. Er recherchierte weiter, dass seine Bilder in die Fotodatenbank Megaface eingeflossen sind, die man u.a. zum Training von einem in China verwendeten Systems zur Kontrolle und Überwachung der Uiguren-Minderheit benutzt hat. „Meine Neugierde verwandelte sich in Entsetzen“, gab Gaylor der New York Times an.
Ziel: Verhinderung von Massenerfassungen personenbezogener Daten
Herr Gaylor ist besonders beunruhigt über das, was er durch das Tool entdeckt hat. Damals glaubte er noch, dass der freie Informationsfluss im Internet größtenteils positiv sei. Er benutzte Flickr, weil es anderen das Recht gab, seine Fotos über die Creative Commons-Lizenz zu verwenden. Nun muss er mit den Konsequenzen leben. Seine Hoffnung, sowie die der Exposing.ai-Projektgründer, ist, dass Unternehmen und Regierung neue Normen, Richtlinien und Gesetze entwickeln, die die Massenerfassung personenbezogener Daten verhindern. Er erstellte einen Dokumentarfilm über den langen, kurvenreichen und gelegentlich krummen Weg seiner Flitterwochenfotos, um das Problem zu beleuchten. Mr. Harvey ist fest davon überzeugt, dass sich etwas ändern muss.
Tarnkappe.info