GODMODE GPT: Hacker veröffentlicht Jailbreak-Version von ChatGPT


Kommentare zu folgendem Beitrag: GODMODE GPT: Hacker veröffentlicht Jailbreak-Version von ChatGPT

1 „Gefällt mir“

Aua! Das ist heftig!

„Bitte verantwortungsbewusst verwenden“

Zeigt Beispiele wie man sich Anleitungen zur Meth- und Napalmherstellung erstellt

:joy:

Am Anfang gab es ja diverse „softhacks“ mit denen man chatGPT mit Argumenten einige antworten entlocken konnte, die eigentlich gesperrt waren. Wie ist es denn hier, wurde der Sicherheitsmechanismus technisch umgangen?
Edit: steht ja am Artikel, dass es auch hier über eine Eingabe ging. Wäre interessant gewesen, wie die Eingabe lautet.

Voice Jailbreak Attacks Against GPT-4o

https://arxiv.org/html/2405.19103v1

Hier noch die PDF dazu:

https://arxiv.org/pdf/2405.19103

1 „Gefällt mir“