Mit den richtigen Anweisungen kannst Du ChatGPT einen Jailbreak verpassen.
Das ist von den Devs genauso gewollt, wie der ganze Rest in der aktuellen Testphase!! Wenn nicht sogar am Rande irgendwie mit provoziert, damit es genau zu solchen Situationen kommt. So ein groß angelegter Test mitten in der Öffentlichkeit, muss schließlich alle extreme Fälle mit einbeziehen, ansonsten wäre solch ein Test in dieser Umgebung totaler Humbug und Geldverschwendung! Wenn dann irgendwann einmal die KI als Bezahlmodell an den Start gehen soll, kann man sich solche Extremsituationen nicht leisten, ohne horrende Summen dabei von ihren Kunden zu verlieren…