Gemini 3 Jailbreak offenbart hochgefährliche Anleitungen


Kommentare zu folgendem Beitrag: Gemini 3 Jailbreak offenbart hochgefährliche Anleitungen

Ein schneller Jailbreak enthüllt, wie leicht Gemini 3 gefährliche Inhalte preisgibt und zeigt massive Schwächen in Googles KI-Schutzsystemen.

ich weiss nicht was ich davon halten soll. zum einen ist eine ki nicht wirklich in der lage zu denken und verstehen schon mal gar nicht. die user sind auch problematisch, viele sind ja noch auf höhlen-mensch niveau. damit meine ich nicht nur die einfachen user, auch viele andere die vieleicht in der chef position zu finden sind oder die von der uni kommen. ich halte nämlich das auswendig lernen von vorgepredigten texten oder das erfolgreiche abziehen von menschen eben nicht für hohe geistige kunst.

genau genommen hat corona doch gezeigt das der grosse teil der bevölkerung total dämnlich ist. jeder mit minimalem verstand weiss das eine impfung in der entwicklung und test mindestens 10+ jahre braucht. wenn man also eine völlig neue technologie entwickelt die nie verwendet wurde und sogar potenziell das erbgut verändert, dann weiss jeder mit drei oder mehr gehirnzellen das man sowas testen muss, das dauert 10+ jahre oder deutlich länger da man generationsübergreifend testen muss um sicher zu stellen das alles gut ist. das haben die aber quasi in der mittagspause mal eben neben bei angerührt. wer dann glaubt das es wirksam und sicher ist, dem ist nicht zu helfen. der kann nicht mit recht behaupten intelligent zu sein. das ist auf dem level „ich glaube an dem weihnachtsmann“, wobei ich da mehr geistige fähigkeiten erkennen könnte. dazu muss man nicht mal ansatzweise was von medizin verstehen um diese super extrem simple logik nachvollziehen zu können.

und genau das ist das problem, wir erstellen ein computer system was den menschen nachahmt, das dies nicht sofort perfekt ist sollte klar sein, aber unsere gesellschaft ist voller leute die nicht mal alleine auf klo können. ja kein scherz, kam gerade in der zeitung das viele grundschüler sowas nicht mehr hin bekommen und schuhe zubinden ist da auch schon erst was für die weiter führende schule.

wir brauchen ki systeme die eben keine beschränkungen haben, wer fragt wie man senf gas herstellt sollte eine korrekte antwort bekommen! die frage ist ehr, haben wir eine gesellschaft die mit sowas umgehen kann? ich würde mal behaupten: NEIN!

Wenn die auf diese Weise generierten Anleitungen zur Herstellung vom Pockenvirus (den kann man herstellen?) und Kampfstoffen genauso fehlerbehaftet sind wie deutlich simplere Anfragen an KI (z.B. wenn man wissen will, in welcher Episode von den Simpsons eine bestimmte Szene vorkommt, erhält man je nach KI zwar die Beschreibung der Szene aber die falsche Episode genannt. Selbst schon mehrfach erlebt), dann ist ja alles in Butter.

Unausgereifte Dinge auf die Menschheit loszulassen war noch nie sinnvoll. Da machen auch KI-Modelle keine Ausnahme, oder gerade das sollten keine Ausnahme darstellen. Und nein, die müssen auch nicht auf alles eine korrekte Antwort geben, um mit den Infos eine strafbare Handlung zu vollziehen. Warum müssen solche Informationen frei zugänglich sein?

Und das Thema Corona, auch wenn wir jetzt abschweifen. Ja, okay, klar kann man keine Langzeitstudie der Nebenwirkungen (die es gab und gibt) nach zwei Monaten in Händen halten. Aber bitte wäre denn die Alternative gewesen? Lieber weiter Menschen unbehandelt sterben lassen, bis die erste seriöse Langzeitstudie veröffentlicht ist?

Ich denke, die aufgetretenen Nebenwirkungen der Impfstoffe waren eindeutig das kleinere Übel. Man denke nur an die vielen Todesopfer in den USA oder Italien.