„Wenn es jeder baut, sterben alle“ –> Wie KI uns alle umbringen könnte...!

„Wenn es jeder baut, sterben alle“ –> Wie KI uns alle umbringen könnte…!

Was wäre, wenn ich Ihnen sagen würde, dass ich Ihre Sorgen um den Klimawandel lindern könnte, und alles, was Sie dafür tun müssten, wäre, ein einziges Buch zu lesen? Großartig, würden Sie sagen, bis ich erwähne, dass der Grund dafür, dass Sie sich keine Sorgen mehr machen würden, darin liegt, dass das Buch besagt, dass unsere Spezies ohnehin nur noch wenige Jahre hat, bevor sie von superintelligenter KI ausgelöscht wird.

Wir wissen nicht genau, welche Form dieses Aussterben annehmen wird – vielleicht lässt eine energiehungrige KI die Millionen von Fusionskraftwerken, die sie gebaut hat, überhitzen und bringt die Ozeane zum Kochen. Vielleicht will sie die Atome in unseren Körpern umstrukturieren, um etwas Nützlicheres zu schaffen. Es gibt viele Möglichkeiten, fast alle davon schlecht, schreiben Eliezer Yudkowsky und Nate Soares in ihrem Buch „If Anyone Builds It, Everyone Dies“, und wer weiß, welche davon eintreten wird. Aber so wie man vorhersagen kann, dass ein Eiswürfel, der in heißes Wasser geworfen wird, schmilzt, ohne zu wissen, wo seine einzelnen Moleküle landen, so kann man sicher sein, dass eine KI, die intelligenter ist als der Mensch, uns alle auf die eine oder andere Weise umbringen wird.

Dieses Maß an Selbstsicherheit ist typisch für Yudkowsky, insbesondere für ihn. Seit Jahren warnt er auf der von ihm mitbegründeten Website LessWrong.com und über das von ihm gegründete Machine Intelligence Research Institute (dessen aktueller Präsident Soares ist) vor den existenziellen Risiken der Technologie. Obwohl er weder einen Schul- noch einen Universitätsabschluss besitzt, ist Yudkowsky in seinem Fachgebiet äußerst einflussreich und eine Berühmtheit in der Welt der hochbegabten jungen Männer, die sich online streiten (sowie Autor einer 600.000 Wörter umfassenden Fanfiction mit dem Titel „Harry Potter und die Methoden der Rationalität“). Schillernd, nervig, polarisierend. „Die Leute werden klinisch depressiv, wenn sie deinen Mist lesen“, klagte der führende Forscher Yann LeCun während eines Online-Streits . Aber wer ist er schon, als leitender Wissenschaftler bei Meta, dass er sich so äußern darf?

Und obwohl Yudkowsky und Soares unkonventionell sein mögen, ähneln ihre Warnungen denen von Geoffrey Hinton, dem Nobelpreisträger und „Vater der KI“, und Yoshua Bengio, dem weltweit meistzitierten Informatiker , die beide die Erklärung unterzeichneten , dass „die Minderung des Risikos des Aussterbens durch KI eine globale Priorität neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg sein sollte“.

Der Warnspruch „Wenn es jeder baut, sterben alle“ kommt genau zum richtigen Zeitpunkt. Superintelligente KI existiert zwar noch nicht, doch nach der ChatGPT-Revolution belaufen sich die Investitionen in die Rechenzentren, die sie ermöglichen würden, mittlerweile auf Hunderte von Milliarden. Laut John Thornhill von der Financial Times handelt es sich dabei um „die größte und schnellste Einführung einer universellen Technologie in der Geschichte“. Allein Meta wird in diesem Jahr bis zu 72 Milliarden US-Dollar (54 Milliarden Pfund) in KI-Infrastruktur investieren, und die Entwicklung von Superintelligenz ist nun Mark Zuckerbergs erklärtes Ziel.

Keine guten Nachrichten, wenn man Yudkowsky und Soares Glauben schenkt. Aber warum sollten wir? Trotz der Komplexität des Themas ist „If Anyone Builds It, Everyone Dies“ so klar geschrieben, wie seine Schlussfolgerungen schwer zu akzeptieren sind. Selbst in den technisch anspruchsvolleren Passagen, vor allem zur KI-Modellentwicklung und -architektur, bleibt der Text verständlich genug, um die grundlegenden Fakten nachvollziehbar zu machen.

Ein Problem ist, dass wir die Funktionsweise generativer KI noch nicht vollständig verstehen. Früher wurden Computerprogramme manuell programmiert – jeder Aspekt wurde von einem Menschen entworfen. Die neuesten Modelle hingegen werden nicht „hergestellt“, sondern „entwickelt“. Wir verstehen beispielsweise nicht, wie ChatGPT seine Fähigkeit zum logischen Denken entwickelte, nachdem ihm Unmengen von menschengenerierten Texten gezeigt wurden. Während seiner Entwicklung geschah etwas grundlegend Mysteriöses. Dadurch entzieht sich ein wesentlicher Teil der Funktionsweise von KI unserer Kontrolle. Selbst wenn wir sie in Richtung bestimmter Ziele wie „Sei nett zu anderen“ lenken können, können wir nicht bestimmen, wie sie diese Ziele erreichen wird.

Das ist problematisch, denn es bedeutet, dass KI unweigerlich ihre eigenen, eigenwilligen Vorlieben und Vorgehensweisen entwickeln wird, und diese fremdartigen Neigungen werden sich wahrscheinlich nicht mit unseren decken. (Dies ist, wohlgemerkt, völlig unabhängig von der Frage, ob KIs „empfindungsfähig“ oder „bewusst“ sein könnten. Ziele vorgegeben zu bekommen und in deren Auftrag zu handeln, reicht aus, um potenziell gefährliches Verhalten hervorzurufen.) Yudkowsky und Soares weisen jedenfalls darauf hin, dass Technologieunternehmen bereits intensiv daran arbeiten, KIs zu entwickeln, die eigenständig agieren, da Unternehmen bereit sind, mehr für Tools zu bezahlen, die sie nicht überwachen müssen. Sollte eine solche „agentische“ KI die Fähigkeit erlangen, sich selbst zu verbessern, würde sie die menschlichen Fähigkeiten in praktisch allen Bereichen rasch übertreffen. Angenommen, eine solche superintelligente KI würde ihr eigenes Überleben schätzen – warum sollte sie es nicht? –, würde sie unweigerlich versuchen, die Entwicklung konkurrierender KIs durch den Menschen zu verhindern oder sie abzuschalten. Der einzig sichere Weg, dies zu erreichen, ist die Abschaltung. uns niederdrücken.

Welche Methoden würden sie anwenden? Yudkowsky und Soares argumentieren, dass es sich dabei um Technologien handeln könnte, die wir uns heute noch nicht vorstellen können und die uns sehr seltsam erscheinen mögen. Sie vergleichen uns mit den Azteken, die spanische Schiffe vor der Küste Mexikos sichteten und für die die Vorstellung von „Stöcken, mit denen man dich töten kann“ – sprich: Feuerwaffen – kaum vorstellbar gewesen wäre.

Yudkowsky und Soares präsentieren ihre Argumente mit solcher Überzeugung, dass man nach der Lektüre dieses Buches leicht in der Stimmung ist, seine Rentenbeiträge zu kündigen.
Um die Sache glaubwürdiger zu gestalten, versuchen sie es dennoch. In dem Teil des Buches, der am ehesten an Science-Fiction erinnert, entwerfen sie ein anschauliches Szenario mit einer superintelligenten KI namens Sable. Entwickelt von einem großen Technologiekonzern, verbreitet sich Sable über das Internet in jeden Winkel der Zivilisation und rekrutiert menschliche Handlanger mithilfe der überzeugendsten Chat-App, die man sich vorstellen kann, bevor sie uns mit synthetischen Viren und molekularen Maschinen vernichtet. Das ist natürlich abwegig – aber die Azteken hätten dasselbe über Musketen und den Katholizismus gesagt.

Yudkowsky und Soares argumentieren so überzeugend, dass man nach der Lektüre dieses Buches am liebsten seine Rentenbeiträge kündigen möchte. Der Hoffnungsschimmer, den sie bieten – und der ist eher schwach –, besteht darin, dass das Schlimmste abgewendet werden kann, wenn sich die ganze Welt darauf einigt, die Entwicklung fortgeschrittener KI so schnell wie möglich einzustellen. Angesichts der wirtschaftlichen und strategischen Anreize sowie der aktuellen politischen Lage erscheint dies jedoch eher unwahrscheinlich.
Die wenigen Hoffnungsschimmer, nach denen wir uns jetzt sehnen, sind also Hinweise darauf, dass sie möglicherweise nicht richtig liegen, weder in der Annahme, dass Superintelligenz im Anmarsch ist, noch in der Annahme, dass deren Entstehung unsere Vernichtung bedeuten würde.

Es gibt durchaus Stellen im Buch, an denen die Überzeugung, mit der ein Argument präsentiert wird, dessen eigentliche Stärke übersteigt. Ein kleines Beispiel: Um zu veranschaulichen, wie KI seltsame, fremdartige Vorlieben entwickeln kann, führen die Autoren an, dass einige große Sprachmodelle Schwierigkeiten haben, Sätze ohne Punkte zu interpretieren. „Menschliches Denken funktioniert nicht so“, schreiben sie. „Wir hätten keine Probleme, einen Satz zu verstehen, der ohne Punkt endet.“ Das stimmt aber nicht ganz; Menschen verlassen sich oft auf Satzzeichen am Ende, um Sätze richtig zu interpretieren. Wir lernen Sprache durch Sprechen, daher sind diese Zeichen keine Punkte auf dem Papier, sondern prosodische Merkmale wie die Intonation: Man denke nur an den Unterschied zwischen einer steigenden und einer fallenden Betonung am Ende eines Satzes wie „Er sagte, er käme“. Wenn textbasierte KI sich stark auf die Zeichensetzung stützt, um den Sinn zu erfassen, zeigt das, dass ihre Denkprozesse denen des Menschen ähneln und nicht fremd sind.

Und für Autoren, die tief in der hyperrationalen Kultur von LessWrong verwurzelt sind, weisen Yudkowsky und Soares eine deutliche Bestätigungstendenz auf. „Die Geschichte“, schreiben sie, „ist voll von Beispielen dafür, wie katastrophale Risiken verharmlost und ignoriert wurden“, von verbleitem Benzin bis Tschernobyl. Doch was ist mit Vorhersagen katastrophaler Risiken, die sich als falsch erwiesen haben? Auch davon ist die Geschichte voll, von Malthus’ Bevölkerungsapokalypse bis zum Jahr-2000-Problem. Yudkowsky selbst behauptete einst, die auslöschen . Nanotechnologie würde die Menschheit „spätestens im Jahr 2010“

Das Problem ist, dass man selbstüberschätzend, widersprüchlich und ein notorischer Schwarzmaler sein kann und trotzdem Recht haben kann. Es ist wichtig, sich der eigenen Denkmuster bewusst zu sein, wenn man die hier vorgebrachten Argumente betrachtet; wir haben jedes Interesse daran, sie nicht zu glauben.
Und obwohl sie nicht den wissenschaftlichen Konsens widerspiegeln, handelt es sich um ein sich rasant entwickelndes und noch wenig erforschtes Gebiet. Was Intelligenz ausmacht, was „Superkräfte“ bedeutet, ob Intelligenz allein für die Weltherrschaft ausreicht – all das wird heftig debattiert.
Gleichzeitig ist der bestehende Konsens nicht besonders beruhigend. In einer Umfrage unter 2.778 KI-Forschern aus dem Jahr 2024 lag die mittlere Wahrscheinlichkeit für „extrem negative Folgen wie das Aussterben der Menschheit“ bei 5 %. Besorgniserregend ist, dass „häufigeres Nachdenken (entweder ‚viel‘ oder ‚sehr viel‘) mit einem Median von 9 % einherging, während wenig oder kaum Nachdenken mit einem Median von 5 % verbunden war“.
Yudkowsky beschäftigt sich schon fast sein ganzes Erwachsenenleben mit diesem Problem. Dass seine Prognose mit über 99 % zutrifft, könnte auf eine Art hysterische Besessenheit oder auf eine besonders gründliche Auseinandersetzung mit dem Thema hindeuten. Wie dem auch sei, es scheint, als ob jeder, dem die Zukunft am Herzen liegt, die Pflicht hätte, seine und Soares’ Ausführungen zu lesen.

SKYNET RULEZZ!!

:+1: :wink: :laughing:

Ja, an Terminator und Skynet musste ich beim Lesen auch direkt denken. Hoffen wir, dass sich der gute Mann irrt.

Zur Erheiterung nun das Gif, an dem ich mich nun seit Stunden nicht sattsehen kann!

two men in suits and ties are holding hands on a red carpet ..|833x774.9356568364611

:wink: :joy: :+1:

…kommt gleich nach diesem hier…

0