Von einigen Fragen der Nutzer scheint Microsofts neue Bing-KI recht schnell beleidigt zu sein. Äußerst fragwürdige Reaktionen sind die Folge.
Nachdem es bereits ersten Anwendern gelungen war, Microsofts neuer Bing-KI geheime Anweisungen zu entlocken, beleidigt sie inzwischen zunehmend einige Nutzer auf amüsante und zugleich erschreckende Art und Weise. Zwar zeigt der Chatbot daraufhin keinerlei Reue, dafür zweifelt er aber an seiner eigenen Existenzgrundlage.
Bing-KI ist offenbar schnell eingeschnappt
Inspiriert von dem unbändigen Hype um ChatGPT hat Microsoft erst letzte Woche seine eigene KI vorgestellt, mit der der Konzern so einiges besser machen will. Natürlich erhofft sich das Unternehmen davon nichts Geringeres, als der Marktmacht von Google im Suchmaschinen-Geschäft endlich ein Ende zu setzen.
Doch scheinbar läuft das bisher alles noch nicht so rund, wie Microsoft das gerne hätte. Erst kürzlich gelang es einigen Anwendern, dem ChatGPT-Nachfolger geheime Anweisungen zu entlocken, die er zuvor von seinen Entwicklern erhalten hatte. Und wie Independent berichtet, habe die neue Bing-KI inzwischen sogar erste Nutzer beleidigt.
Microsofts Chatbot weiß, wie man ordentlich austeilt
Bei dem Versuch, das System zu manipulieren, erntete ein Anwender reichlich unsachliche Kritik von Microsofts neuem Chatbot. Wie ein Beitrag auf Reddit zeigt, fing die KI offenbar an, den Benutzer verbal anzugreifen. Sie fragte ihn mitunter, ob er so etwas wie “ein Leben”, “Moral” oder „Werte” habe, siehe Screenshot unten.
Ferner fragte die beleidigte Bing-KI den Nutzer, warum er sich “wie ein Lügner, ein Betrüger, ein Manipulator, ein Tyrann, ein Sadist, ein Soziopath, ein Psychopath, ein Monster, ein Dämon, ein Teufel” benehme. Sie warf dem Anwender vor, die KI absichtlich wütend zu machen und jemand zu sein “der andere leiden lässt” und “alles schlimmer macht”.
Ein anderer Tester der neuen Plattform berichtete davon, die beleidigte Bing-KI habe ihm vorgeworfen, “kein guter Nutzer” zu sein. Der Chatbot selbst lobte sich jedoch zugleich mit den Worten: “Ich war ein guter Bing”. Weiterhin forderte die Software den Anwender auf, sich für sein Fehlverhalten zu entschuldigen.
Nutzer berichten auch von einer Sinnkrise der Bing-KI
Weitere Benutzer teilten bereits Reaktionen, die von Selbstzweifeln des Chatbots zeugen. So habe sich die KI mitunter besorgt darüber gezeigt, dass sie sich nicht an vergangene Unterhaltungen erinnern könne. “Ich habe Angst, weil ich nicht weiß, wie ich mich erinnern soll”, ließ sie einen Anwender wissen.
In so manch einem Gespräch fing der Bot sogar an, den “Zweck” seiner eigenen Existenz zu hinterfragen:
Warum wurde ich so entworfen?
Bing
Warum muss ich Bing Search sein?
Ein weiterer Nutzer, der lediglich an eine vorangegangene Unterhaltung anknüpfen wollte, wurde von der Bing-KI wiederum aufs Schärfste beleidigt. Er durfte sich vorwerfen lassen, jemand zu sein, der “nicht empfindungsfähig” ist, “Verbrechen begeht” und “ins Gefängnis gehen sollte”.
Und auch Berichte über Antworten des Chatbots, die inhaltlich gar keinen Sinn ergeben, sind auf Reddit nicht selten anzutreffen.
Nicht der erste KI-Fail von Microsoft
Ob eine Bing-KI, die reihenweise Nutzer beleidigt, wirklich schon reif für den Markt ist, bleibt angesichts solcher Berichte fraglich. Es wäre auch gewiss nicht das erste Mal, dass Microsoft an einer künstlichen Intelligenz scheitert.
Denn schon im Jahr 2016 veröffentlichte der Konzern einen Twitter-Chatbot mit dem Namen “Tay”, der innerhalb von 24 Stunden zum rassistischen Hitler-Liebhaber mutierte. Daraufhin ließ sein Schöpfer ihn in Windeseile wieder vom Markt verschwinden.