Europol warnt vor KI-Chatbot-Missbrauch
Europol warnt vor KI-Chatbot-Missbrauch
Bildquelle: jehoede, Lizenz

Europol warnt vor krimineller Nutzung von ChatGPT

Kriminelle könnten sich die Fähigkeiten von ChatGPT zunutze machen, um Betrug und andere Cyberkriminalität zu begehen, warnte Europol.

Die EU-Strafverfolgungsbehörde Europol warnte in dem Bericht „ChatGPT – die Auswirkungen großer Sprachmodelle auf die Strafverfolgung“ vom Montag (27. März) davor, dass ChatGPT und andere generative KI-Systeme für Online-Betrug und andere Formen der Cyberkriminalität missbraucht werden könnten. Europol-Experten haben ChatGPT auf Missbrauchs-Möglichkeiten untersucht.

ChatGPT, im November letzten Jahres von dem amerikanischen Start-up OpenAI veröffentlicht, haben Nutzer schnell angenommen. Was sich einerseits als bedeutender Fortschritt für das maschinelle Lernen erweist, bietet andererseits auch ein potenzielles Missbrauchspotenzial. Aktuell warnt Europol vor einer möglichen Nutzung von LLMs (Large Language Models) wie ChatGPT für kriminelle Zwecke.

KI-Chatbots können dabei eine breite Palette von Cybercrime, von Phishing bis hin zu Desinformation und Malware abdecken. Europol schätzte ein: „Da die Fähigkeiten von LLMs (großen Sprachmodellen) wie ChatGPT aktiv verbessert werden, bietet die potenzielle Ausnutzung dieser Art von KI-Systemen durch Kriminelle einen bedenklichen Ausblick.“

Europol warnt: Mit ChatGPT zu kriminellen Aktivitäten

Der Bericht hebt einen möglichen missbräuchlichen Einsatz von ChatGPT in drei Bereichen der Kriminalität hervor. Europol weist darauf hin, dass zum Ersten ChatGPT durch seine Fähigkeit, realistische Texte zu verfassen, ein „nützliches Werkzeug für Phishing-Zwecke“ sei.

Zum Zweiten wäre ChatGPT durch seine Eignung, „Sprachmuster zu reproduzieren, um den Sprachstil bestimmter Personen oder Gruppen zu imitieren“ für Kriminelle wertvoll. Der KI-Chatbot sei in der Lage, „schnell und in großem Umfang authentisch klingende Texte zu verfassen“. Dies könne ihn zum „Werkzeug für Propaganda und Desinformation“ machen, so die Einschätzung Europols.

Mit authentisch klingenden Sprachstilen von Personen oder Gruppen könnten Kriminelle ihre Opfer leichter in Fallen locken und ihr Vertrauen erschleichen. „Es ermöglicht den Nutzern, mit relativ geringem Aufwand Nachrichten zu erstellen und zu verbreiten, die ein bestimmtes Narrativ widerspiegeln.“

Zum Dritten könnten Kriminelle auch mit geringen technischen Kenntnissen ChatGPT nutzen, um bösartigen Code zu erstellen, so Europol.

Mit dem Bericht verfolgt Europol das Ziel, die Strafbehörden für das Thema eines möglichen Missbrauchs von ChatGPT zu sensibilisieren.

Tarnkappe.info

Über

Antonia ist bereits seit Januar 2016 Autorin bei der Tarnkappe. Eingestiegen ist sie zunächst mit Buch-Rezensionen. Inzwischen schreibt sie bevorzugt über juristische Themen, wie P2P-Fälle, sie greift aber auch andere Netzthemen, wie Cybercrime, auf. Ihre Interessen beziehen sich hauptsächlich auf Literatur.