Ein Script-Kiddie bei der Vorbereitung seines nächsten Cyberangriffs (Symbolbild)
Ein Script-Kiddie bei der Vorbereitung seines nächsten Cyberangriffs (Symbolbild)
Bildquelle: alphaspirit, Lizenz

Script-Kiddies missbrauchen ChatGPT für kriminelle Aktivitäten

Dank ChatGPT erzeugen selbst Script-Kiddies ohne Entwicklerkenntnisse inzwischen neue Malware, Verschlüsselungstools und Dark-Web-Marktplätze.

Sicherheitsforscher warnten bereits davor – jetzt wird es zur Realität. In Hackerforen tauchen immer mehr Script-Kiddies auf, die ChatGPT nutzen, um eigene Tools für kriminelle Aktivitäten zu erstellen. Der Chatbot selbst sieht bei seinem Schöpfer OpenAI keine Schuld für den Missbrauch.

ChatGPT erzeugt schadhaften Quellcode für Script-Kiddies

Anwender haben den im November 2022 veröffentlichten KI-Chatbot ChatGPT schon für allerlei fragwürdige Zwecke missbraucht. Das beliebte Tool birgt demnach nicht nur große Chancen, sondern ebenso enorme Risiken.

Inzwischen scheint sich ein besonders brisanter Verwendungszweck zu etablieren, vor dem Sicherheitsforscher schon vor Wochen gewarnt hatten. Denn immer mehr Script-Kiddies, also Cyberkriminelle, die nur über beschränkte technische Kenntnisse verfügen, nutzen den Chatbot von OpenAI, um damit bösartigen Quellcode zu erzeugen.

Zwar sind die von ChatGPT generierten Codes oftmals fehlerbehaftet und bedürfen gegebenenfalls einer Korrektur durch eine Person mit dem nötigen Know-how. Doch mit mehreren Anläufen und geschickter Kombination der Ergebnisse ist es durchaus möglich, damit neue und effektive Tools für Cyberangriffe zu erstellen. Zumal der Chatbot ständig dazulernt und immer bessere Resultate liefert.

Erzeugung von Malware, Verschlüsselungstools und mehr – ohne Entwicklerkenntnisse

Das Sicherheitsunternehmen Check Point Research hat bei der Analyse einiger Hacking-Webseiten erste Fälle solcher Aktivitäten identifiziert – Stichwort “OPWNAI“. Auch weniger qualifizierte Script-Kiddies sind demnach durch das KI-Tool in der Lage, effektive Hackerangriffe durchzuführen. Was echte Profis im Laufe der Zeit damit anstellen könnten, steht ferner auf einem ganz anderen Blatt.

“Wie wir vermutet hatten, zeigten einige der Fälle deutlich, dass viele Cyberkriminelle, die OpenAI einsetzen, über keinerlei Entwicklerkenntnisse verfügen. Obwohl die Tools, die wir in diesem Bericht vorstellen, recht einfach sind, ist es nur eine Frage der Zeit, bis raffiniertere Bedrohungsakteure die Art und Weise, wie sie KI-basierte Tools zum Schaden einsetzen, verbessern.”

Bericht von Check Point Research

Die gleichen Forscher warnten bereits im Dezember davor, dass sich ChatGPT mitunter von Script-Kiddies missbrauchen lasse, um eine Malware samt zugehöriger Phishing-Kampagne zu erstellen. Wenngleich sie damals ebenfalls darauf hinwiesen, dass das KI-Tool auch für die Unterstützung der Cyberabwehr dienen könne. Damit dürfte sich in Zukunft ein KI-basiertes Katz- und Maus-Spiel etablieren.

In Hackerforen entdeckten die Sicherheitsforscher Hinweise auf die Entwicklung von Schadsoftware, die auf dem Code gängiger Malware-Stämme basierte. Ebenso stießen sie auf die Entstehung neuer Verschlüsselungstools und Dark-Web-Marktplätze mit stetig aktualisierten Preisen auf Basis bekannter Kryptowährungen.

Verantwortlich sind natürlich die Script-Kiddies – nicht etwa “OPWNAI

Wie The Register berichtet, bewegten sich die Forscher schließlich auf eine neue Ebene des Erkenntnisgewinns. Sie befragten ChatGPT selbst, wie man seine Fähigkeiten missbrauchen könne.

“In seiner Antwort sprach ChatGPT über die Verwendung der KI-Technologie, um überzeugende Phishing-E-Mails und Posts in sozialen Medien zu erstellen, um Menschen dazu zu verleiten, persönliche Daten preiszugeben, auf bösartige Links zu klicken oder um Video- und Audiodateien zu erstellen, die für Fehlinformationen verwendet werden können.”

The Register

Dennoch verteidigte der Chatbot in gleichem Zuge seinen Schöpfer OpenAI, der “selbst nicht für den Missbrauch seiner Technologie durch Dritte verantwortlich” sei. Schließlich ergreife das Unternehmen Maßnahmen, um einen Missbrauch seiner Technologie für böswillige Zwecke zu verhindern. Wir dürfen gespannt bleiben, ob uns der Chatbot in Zukunft auch vor böswilligen Script-Kiddies schützen kann.

Tarnkappe.info

Mehr zu dem Thema Künstliche Intelligenz
Marc Stöckel hat nach seiner Ausbildung zum IT-Systemelektroniker und einem Studium im Bereich der technischen Informatik rund 5 Jahre als Softwareentwickler gearbeitet. Um seine technische Expertise sowie seine Sprachfertigkeiten weiter auszubauen, schreibt er seit dem Sommer 2022 regelmäßig Artikel zu den Themenbereichen Software, IT-Sicherheit, Datenschutz, Cyberkriminalität und Kryptowährungen.