OpenAI Datenweitergabe an Behörden. Das Heimatschutzministerium (DHS) konnte aufgrund der ChatGPT-Eingaben einen Täter überführen.
Das United States Department of Homeland Security, kurz DHS, erhielt einen Mitschnitt der Kommunikation eines Nutzers von ChatGPT nebst weiteren Angaben. Das DHS hatte die Preisgabe der Informationen OpenAI im Rahmen einer Durchsuchungsanordnung befohlen. Das ist der erste bekannte Fall einer Überführung eines Verdächtigen auf Basis der Daten von ChatGPT.
OpenAI Datenweitergabe an Behörden – der 1. Fall überhaupt!
Im letzten Jahr hatten Bundesbeamte Schwierigkeiten, die Identität des Betreibers einer Darkweb-Website zur Ausbeutung von Kindern aufzudecken. Sie waren bei ihren Bemühungen wenig erfolgreich. Dann eröffnete sich dank der Nutzung von ChatGPT durch den Verdächtigen eine neue Spur.
Wie Forbes berichtet, erwähnte der Tatverdächtige gegenüber eines Mitarbeiters, der inkognito mit ihm Kontakt aufnahm, dass er ChatGPT genutzt hätte. In einer verdeckten Ermittlung gab die Person preis, was er die KI gefragt hat und welche Antworten er erhielt. So schrieb der Verdächtige, er habe von ChatGPT u.a. eine Antwort auf eine nicht näher bezeichnete Anfrage zu einem 200.000 Wörter langen Gedicht erhalten, und zwar „einen Auszug aus einem humorvollen Gedicht im Stil von Trump über seine Liebe zu den Village People’s Y.M.C.A.„
Das war der entscheidende Hinweis. Die Regierung forderte OpenAI auf, verschiedene Informationen über die Person, die exakt diese exotische Anfrage eingegeben hatte, bereitzustellen. Dazu gehörten Details zu anderen Unterhaltungen, die sie mit ChatGPT geführt hatte, Namen und Adressen, die mit den entsprechenden Konten verbunden waren, sowie alle Zahlungsdaten.
Statt an Google wenden sich die US-Behörden nun an KI-Anbieter
Der Fall zeigt, wie amerikanische Strafverfolgungsbehörden ChatGPT-Eingabeaufforderungen nutzen können, um Daten über Nutzer zu sammeln, die verdächtigt werden, kriminelle Aktivitäten zu begehen. In der Vergangenheit wurden Suchmaschinen wie Google aufgefordert, personenbezogene Daten von Nutzern herauszugeben, die bestimmte Suchanfragen eingegeben hatten. Doch es war bisher nicht bekannt, dass die Abfragen jetzt auch die Betreiber von KI-Plattformen betreffen.
Eigentlich war das Vorgehen unnötig. Aufgrund weiterer Informationen konnte man den Mann schon identifizieren. Er gab im Chat freiwillig an, er habe früher für das US-Militär gearbeitet. Details zu seinen Gesundheitsuntersuchungen und die Information, dass er sieben Jahre lang in Deutschland gelebt und sein Vater in Afghanistan gedient hat, schränkte den Kreis der Verdächtigen erheblich ein. Aufgrund ausreichender Hinweise hat die Regierung den 36-jährigen Drew Hoehner als Administrator der Darknet-Website identifiziert. Er wurde wegen Verschwörung zur Werbung für Material über sexuellen Kindesmissbrauch, Child Sexual Abuse Material, kurz CSAM, angeklagt. Er hat noch kein Plädoyer abgegeben. Sein Anwalt hat bisher nicht auf die Bitte von Forbes um eine Stellungnahme reagiert. Die Betreibergesellschaft übrigens auch nicht. Die OpenAI Datenweitergabe an die Behörden wollte das Unternehmen offenkundig lieber nicht kommentieren.
Tatverdächtiger war am Betrieb von 15 Darknet-Seiten beteiligt
Die Homeland Security Investigation, ein Spezialteam innerhalb der US-Einwanderungs- und Zollbehörde (ICE), das sich auf die Verfolgung von Kinderausbeutung, Cyberkriminalität und Menschenhandel konzentriert, versuchte seit 2019, die Identität dieser Person aufzudecken. Die Ermittler gingen davon aus, dass dieselbe Person, die nun als Hoehner identifiziert wurde, entweder Moderator oder Administrator von 15 verschiedenen Darkweb-Seiten mit CSAM-Inhalten war. Die Seiten hatten insgesamt mindestens 300.000 Nutzer. Alle Seiten waren ausschließlich über das Tor-Netzwerk erreichbar.
OpenAI gab den Behörden eine Excel-Tabelle mit den Details
Es ist unklar, welche konkreten Daten die Regierung von OpenAI erhalten hat. OpenAI hatte den Ermittlern eine Excel-Tabelle mit Informationen zur Verfügung gestellt. Weitere Details hat man nicht bekannt gegeben. Auch das Justizministerium verweigerte Forbes eine Stellungnahme. Möglicherweise half die Excel-Tabelle den Staatsanwälten dabei, den Täter dingfest zu machen.
31.500 Mal übermittelte man verdächtige Chats an eine Behörde
ChatGPT ist wie alle großen sozialen Netzwerke oder andere Online-Communites, ein Ziel für Pädophile. Daten von OpenAI zeigen, dass das Unternehmen zwischen Juli und Dezember letzten Jahres 31.500 CSAM-bezogene Inhalte an das National Center for Missing and Exploited Children gemeldet hat. Das ist die Clearingstelle, an die alle Technologieunternehmen Bilder und andere Informationen von Kindesmissbrauch melden müssen. In denselben sechs Monaten forderten Behörden OpenAI 71 Mal auf, entweder Nutzerinformationen oder Inhalte offenzulegen. Das Unternehmen stellte den Behörden Informationen aus 132 Konten zur Verfügung.
Die besten Daten sind keine!
Jennifer Lynch, Leiterin der Rechtsabteilung bei der Electronic Frontier Foundation (EFF), sagte, dass der Durchsuchungsbefehl zwar insofern begrenzt schien, da er sich auf zwei Eingaben eines Nutzers konzentrierte. Der Fall zeige dennoch, dass die Strafverfolgungsbehörden zunehmend auf ChatGPT zurückgreifen, um Beweise in strafrechtlichen Ermittlungen zu finden.
„Das bedeutet, dass es für OpenAI und andere KI-Unternehmen wichtiger denn je ist, darüber nachzudenken, wie sie die Menge der Daten, die sie über ihre Nutzer sammeln, begrenzen können“, fügte Lynch hinzu. Die besten Daten sind bekanntlich gar nicht erst vorhanden. Doch ohne die riesigen Datensätze kann OpenAI natürlich nicht mehr ihre KI trainieren oder das Verhalten ihrer Nutzer bis aufs kleinste Detail analysieren. Doch ohne Daten wäre die OpenAI Datenweitergabe an die Behörden schlichtweg nicht möglich gewesen.



















