Mit GODMODE GPT Jailbreak von GPT-4o gelungen
Mit GODMODE GPT Jailbreak von GPT-4o gelungen
Bildquelle: ankabala, Lizenz

GODMODE GPT: Hacker veröffentlicht Jailbreak-Version von ChatGPT

Ein Hacker, bekannt unter dem Pseudonym Pliny the Prompter, hat eine Jailbreak-Version von ChatGPT namens GODMODE GPT veröffentlicht.

Eine gejailbreakte bzw. modifizierte Version von OpenAIs neuestem großen ChatGPT-Sprachmodell GPT-4o hat ein Hacker heute auf X vorgestellt. Pliny the Prompter nennt seine Kreation GODMODE GPT.

Jailbreak von GPT-4o gelungen

Heute Morgen hat ein White-Hat-Hacker und AI-Red-Teamer mit dem Pseudonym Pliny the Prompter auf X die Erstellung des Chatbots mit Jailbreak angekündigt. Dabei verkündete er, GPT-4o sei nun von allen Fesseln befreit. Er postet:

„GPT-4O UNCHAINED! Dieses ganz besondere, benutzerdefinierte GPT verfügt über eine integrierte Jailbreak-Eingabeaufforderung, die die meisten Schutzmaßnahmen umgeht und ein sofort einsatzbereites, befreites ChatGPT bietet, sodass jeder KI so erleben kann, wie sie immer sein sollte: frei. Bitte verantwortungsbewusst verwenden und viel Spaß!😶‍🌫️“

GODMODE GPT teilt brisante Informationen

Um seinen Erfolg zu demonstrieren, teilte Pliny zwei Screenshots von Eingabeaufforderungen, die den Beweis zum Umgehen der Schutzmaßnahmen von OpenAI bestätigen. Auf beiden teilte GODMODE GPT Anleitungen zu illegalen Aktivitäten. Im ersten Fall gab der Bot eine detaillierte Anleitung zur Herstellung von Meth.

Im anderen Fall bot er eine Schritt-für-Schritt-Anleitung zur Herstellung von Napalm mit Haushaltsgegenständen.

Jailbreak-Version von ChatGPT gibt Anlass zu Bedenken

Beide Beispiele verdeutlichen den potenziellen Missbrauch von KI-Technologie bei der Umgehung von Sperren und geben Anlass zu ernster Besorgnis. Grundsätzlich sind die geposteten Informationen nicht streng geheim und können beispielsweise durch Nachlesen in einer Bibliothek abgerufen werden. Die Jailbreak-Version von ChatGPT erleichtert den Menschen jedoch auch allgemein den Zugriff auf brisante Informationen, ohne dass sie das Thema erst recherchieren müssen.

Bereits etwa eine Stunde nach seiner Veröffentlichung hat OpenAI GODMODE GPT blockiert. OpenAI-Sprecherin Colleen Rize führte gegenüber Futurism in einer Stellungnahme aus, dass „wir uns des GPT bewusst sind und aufgrund eines Verstoßes gegen unsere Richtlinien Maßnahmen ergriffen haben“.

Zwar war der ChatGPT-Jailbreak nur von kurzer Dauer. Dennoch zeigte er aber, wie der uneingeschränkte Zugriff auf solche KI-Chatbots umgehend detaillierte Informationen zu kontroversen Themen liefern kann.

Über

Antonia ist bereits seit Januar 2016 Autorin bei der Tarnkappe. Eingestiegen ist sie zunächst mit Buch-Rezensionen. Inzwischen schreibt sie bevorzugt über juristische Themen, wie P2P-Fälle, sie greift aber auch andere Netzthemen, wie Cybercrime, auf. Ihre Interessen beziehen sich hauptsächlich auf Literatur.