Kommentare zu folgendem Beitrag: GODMODE GPT: Hacker veröffentlicht Jailbreak-Version von ChatGPT
Ein Hacker, bekannt unter dem Pseudonym Pliny the Prompter, hat eine Jailbreak-Version von ChatGPT namens GODMODE GPT veröffentlicht.
Ein Hacker, bekannt unter dem Pseudonym Pliny the Prompter, hat eine Jailbreak-Version von ChatGPT namens GODMODE GPT veröffentlicht.
Aua! Das ist heftig!
„Bitte verantwortungsbewusst verwenden“
Zeigt Beispiele wie man sich Anleitungen zur Meth- und Napalmherstellung erstellt
![]()
Am Anfang gab es ja diverse „softhacks“ mit denen man chatGPT mit Argumenten einige antworten entlocken konnte, die eigentlich gesperrt waren. Wie ist es denn hier, wurde der Sicherheitsmechanismus technisch umgangen?
Edit: steht ja am Artikel, dass es auch hier über eine Eingabe ging. Wäre interessant gewesen, wie die Eingabe lautet.