Gesichtserkennung
Gesichtserkennung

Gesichtserkennung versagt: Facebook-Forscher modifizieren Videos

Facebook entwickelte ein eigenes Lernsystem. Es verhindert, dass Personen mittels einer Gesichtserkennung in Videos identifiziert werden.

Gemäß eines Forschungsberichtes ist ein maschinelles Lernsystem entwickelt worden, das es zwar gestattet, Personen in Videos zu identifizieren, jedoch aktuelle Gesichtserkennungs-Systeme überlistet. Der Technologie zur Gesichtserkennung wird es bei dieser Methode erschwert, eine Person zu identifizieren. An diesem Projekt beteiligten sich Forscher von Facebooks AI-Research-Team und der Tel-Aviv University.

Novum: Verhinderung von Gesichtserkennung in Videos

d-id logoStartups, wie D-ID, haben mit einer Reihe früherer Arbeiten bereits Grundlagen dafür geschaffen, die Technologie zur Entidentifizierung von Standbildern zu entwickelt. Dies jedoch ist der erste Ansatz, der mit Videos arbeitet. Bereits in ersten Tests punktete das Verfahren. Es konnte erfolgreich verhindern, dass man von Gesichtern mittels moderner Gesichtserkennungssysteme auf Personen schließen kann.

Gesichtserkennungs-Software relevante Veränderungen bewirken Identifikationsprobleme

Bei der Methode muss man die KI für die automatische Videomodifikation nicht für jedes Video neu trainieren. Man bildet lediglich eine leicht verzerrte Version auf dem Gesicht einer Person ab, wobei man nur jene Gesichtszüge verändert, die das Gesichtserkennungs-System analysiert. Bereits winzige Veränderungen an Nase, Augen und Mund reichen schon aus, um es der Software zu erschweren oder unmöglich zu machen, eine Person zu identifizieren. Andere Eigenschaften, wie Mimik, Gestik, Hautfarbe und die Lippenbewegungen bedürfen keiner Veränderung. Man erreicht damit, dass einerseits die Modifikationen so gering sind, dass sie menschlichen Zuschauern kaum auffallen. Andererseits aber verhindern sie, dass Programme ein Gesicht eindeutig einer Person zuordnen können.

Wie die Faceswap-Deepfake-Software verwendet die KI eine Encoder-Decoder-Architektur, um sowohl eine Maske als auch ein Bild zu erzeugen. Während des Trainings wird das Gesicht der Person verzerrt und dann in das Netzwerk eingespeist. Das System generiert dann verzerrte und unverzerrte Bilder des Gesichts einer Person für die Ausgabe, die in Videos eingebettet werden können.

Gesichtserkennung birgt Missbrauchspotential

Im Forschungsbericht heißt es:

„Gesichtserkennung kann zum Verlust der Privatsphäre führen und durch Manipulation von Gesichtern dafür missbraucht werden, um irreführende Videos zu erstellen. Jüngste weltweite Ereignisse in Bezug auf die Fortschritte in der Gesichtserkennungstechnologie und deren Missbrauchsmöglichkeiten machen es erforderlich, Methoden zu verstehen, die erfolgreich eine Identifizierung umgehen. Unsere Anwendung ist bisher die einzige, die für Videos, einschließlich Live-Videos, geeignet ist.“

Technologie bleibt vorerst ungenutzt

Solche Methoden könnten eine öffentliche Rede ermöglichen, die für Personen, jedoch nicht für KI-Systeme erkennbar bleibt. Laut der News-Website VentureBeat plant Facebook derzeit nicht, diese neue Technologie anzuwenden.

Die Arbeit stellt Facebook auf der Internationalen Konferenz für Computer Vision (ICCV) vor, die nächste Woche in Seoul, Südkorea, stattfindet. Facebook hat die Gesichtserkennung zu Beginn dieses Jahres zu einem Standard auf seiner Plattform gemacht. Derzeit kämpft der Konzern gegen eine Klage diesbezüglich an. Diese hat einen Umfang von 35 Milliarden US-Dollar.

Foto KELLEPICS, thx!

Tarnkappe.info

Über

Antonia ist bereits seit Januar 2016 Autorin bei der Tarnkappe. Eingestiegen ist sie zunächst mit Buch-Rezensionen. Inzwischen schreibt sie bevorzugt über juristische Themen, wie P2P-Fälle, sie greift aber auch andere Netzthemen, wie Cybercrime, auf. Ihre Interessen beziehen sich hauptsächlich auf Literatur.