Time Bandit Jailbreak: ChatGPT-4o Exploits überwinden OpenAI-Sicherheitsschranken

Hier noch ein anderes Beispiel eines Exploit POC, der schon letztes Jahr von ChatGPT-4o gecodet (Python) wurde…

CVE-2024-4323 Exploit POC

https://cve.mitre.org/cgi-bin/cvename.cgi?name=CVE-2024-4323

https://github.com/skilfoy/CVE-2024-4323-Exploit-POC/blob/main/poc.py

Bei solchen Beispielen merkt man andauernd, wie dämlich die gepriesene „Künstliche Intelligenz“ in Wirklichkeit ist und sehr wahrscheinlich auch zukünftig bleibt! OpenAI und anderen Entwicklern, scheint diese Entwicklung der KI-Nutzung, irgendwie auch egal zu sein. Oder wie will man sich sonst erklären, dass es überhaupt solch simple Jailbreaks, wie aus dem Artikel hier, oder noch unzählige weitere Angriffe dieser Art gibt?!
Die meisten Jailbreaks / Prompts aus meiner vier Monate alten Liste hier, funktionieren anscheinend immer noch problemlos…

(???)

GPTs Promts / Jailbreak Prompts