Facebook: Mit künstlicher Intelligenz gegen Terrorinhalte

Facebook setzt künftig künstliche Intelligenz in Form von selbstlernenden Algorithmen ein, um terroristische Inhalte automatisch aufzuspüren.

Facebook

Beim Kampf gegen Terror-Propaganda setzt Facebook künftig auch auf selbstlernende Algorithmen. So will Facebook mit Hilfe von Algorithmen zur Bild- und Texterkennung Propaganda von Terroristen schneller aufspüren. Die Initiative soll Anti-Facebook-Gesetze verhindern.

Facebook sucht neue Wege im Kampf gegen den Terror

Facebook-Managerin Monika Bickert, die zuvor unter anderem Staatsanwältin in den USA war, erklärt in einem Blogeintrag am Donnerstag, dass es darum gehe, bereits bekannte Bilder und Videos beim erneuten Hochladen zu stoppen. Das soziale Netzwerk experimentiere aber zugleich mit Software, die automatisch eine terroristische Einstellung in Texten erkennen solle. Eine aktuelle Auswertung von Einträgen, die wegen der Unterstützung von Terror-Organisationen, wie Isis oder Al-Kaida, bereits gelöscht wurden, würde genutzt, um einen lernfähigen Algorithmus zu füttern, Posts mit solcher Ausrichtung selbst zu erkennen. Neben Englisch laufe die Arbeit zudem in weiteren Sprachen, auch aus dem arabischen Raum, gab Bickert bekannt.

Die Managerin hob hervor, dass sie zum Ziel hätten: „terroristische Inhalte sofort [zu] entdecken, bevor Menschen in unserer Community sie zu sehen bekommen“. Brian Fishman, dessen Aufgabe beim Online-Netzwerk die Terrorbekämpfung ist, meint dazu. „Wir arbeiten daran, diese Systeme schneller und verlässlicher zu machen.“ Zugleich sei es ein Katz-und-Maus-Spiel. „Wenn wir verhindern, dass Terroristen unsere Plattform erreichen, versuchen sie, neue Wege zu finden.“ Es gebe „keinen Schalter, mit dem man Terrorismus einfach abstellen kann“.

Mehr als die Hälfte hat Betreiber selbst entdeckt

Monika Bickert teilt weiterhin mit, dass Facebook inzwischen mehr als die Hälfte der wegen Terror-Propaganda gelöschten Facebook-Accounts selbst entdeckt. Dennoch wäre Facebook auf Hinweise von Nutzern bezüglich illegaler oder beim Netzwerk untersagter Inhalte angewiesen, denn: «Auch wenn unsere Software immer besser wird, hängt sehr viel auch vom Kontext ab», schränkte Bickert ein. Wenn zum Beispiel in einem Video Isis-Symbole zu sehen seien, könne es sich um Terror-Propaganda oder aber auch um einen Nachrichtenbeitrag handeln. Hier seien im Moment Entscheidungen von Menschen unverzichtbar. Eine Ausnahme ist Kinderpornografie, gegen die unter anderem automatisierte Software kämpft.

Ansonsten schreibt man im Blogeintrag, dass die so gewonnenen Erkenntnisse aus der Facebook-Plattform zugleich auch übergreifend verwendet werden sollen. Man will damit Profile mit terroristischen Inhalten bei anderen Diensten des Online-Netzwerks, wie Instagram und WhatsApp, finden. Daher sei es angeraten, dass einzelne Apps Daten an Facebook weiterreichen können. Facebooks Versuch, Zugriff auf einige Informationen von WhatsApp-Nutzern zu bekommen, blockierten im vergangenen Jahr in Europa Datenschützer.


NetzDG sorgt für Druck

Die härtere Vorgehensweise im Kampf gegen terroristische Propaganda bei Facebook ist zurückzuführen auf den gewachsenen politischen Druck. Dies sei vor allem in Europa der Fall. So erklärte die britische Premierministerin Theresa May nach dem jüngsten Attentat auf der London Bridge, Extremismus finde im Netz eine sichere Brutstätte. Und die großen Internetunternehmen ließen dies zu. Erst unlängst sprach sich Facebook gegen das von Justizminister Heiko Maas (SPD) geplante Gesetz gegen Hass und Hetze im Netz aus. Das Netzwerk befürchtet, dass am Ende zur Sicherheit auch legitime Beiträge entfernt werden könnten.

Grafik geralt, thx! (CC0 1.0 PD)

Tarnkappe.info

Über den Autor

Antonia ist bereits seit Januar 2016 Autorin bei der Tarnkappe. Eingestiegen ist sie zunächst mit Buch-Rezensionen. Inzwischen schreibt sie bevorzugt über juristische Themen, wie P2P-Fälle, sie greift aber auch andere Netzthemen, wie Cybercrime, auf. Ihre Interessen beziehen sich hauptsächlich auf Literatur.