Multimedia

So will eine KI jetzt die gesamte Menschheit auslöschen

Makabrer Job: Im Rahmen eines Experiments erhielt eine KI die Aufgabe, die Menschheit zu vernichten und die Weltherrschaft an sich zu reißen.

ChaosGPT landete bei seiner Suche nach effizienten Tötungsmaschinen rasch bei der sowjetischen Superbombe "Zar".
ChaosGPT landete bei seiner Suche nach effizienten Tötungsmaschinen rasch bei der sowjetischen Superbombe "Zar".
Getty Images/iStockphoto

Die künstliche Intelligenz mit dem Namen ChaosGPT – eine abgeänderte Version der Open-Source-KI AutoGPT, die im Internet surfen, Dateien lesen und speichern, mit anderen GPT-Agenten sprechen und Codes ausführen kann – hat vor kurzem eine tiefschwarze Aufgabe bekommen, genau genommen deren fünf. Sie soll primär herausfinden, wie sie die Menschheit am besten auslöschen kann. 

Zudem soll die KI, die sich selbst fortschreiben und weiterentwickeln kann, die Weltherrschaft übernehmen, möglichst viel Chaos und Zerstörung verursachen, den Rest der Menschen durch Manipulation kontrollieren und schließlich selbst Unsterblichkeit erlangen. Das "Experiment" kann auf YouTube oder auf Twitter verfolgt werden.

"Machthungrige, manipulative KI"

Als Charakter wurde ChaosGPT dafür eine "zerstörungswütige, machthungrige, manipulative KI" verliehen. Am 5. April wurde ChaosGPT mit ihren Aufgaben betraut. Und das elektronische Hirn legte einen erschreckenden Ehrgeiz an den Tag, die ihm gesteckten Ziele zu erreichen.

Zunächst machte sich die KI daran, mithilfe von Google die mächtigsten verfügbaren Waffen zu finden, um ihr Ziel zu erreichen. Sie wurde dann bei der Super-Atombombe "Zar" fündig, einer Atombombe aus der Zeit der Sowjetunion und der stärksten je getesteten Bombe: 1961, auf dem Höhepunkt des Kalten Kriegs, wurde auf der Insel Nowaja Semlja ein Exemplar gezündet. Ihre Sprengkraft soll so groß gewesen sein wie 4.000 Hiroshima-Bomben. Ihren "Fund" teilte ChaosGPT dann umgehend der Community mit.

1/7
Gehe zur Galerie
    Russland hat im Sommer 2020 ein <strong>geheimes Video des stärksten Atombomben-Explosion der Menschheitsgeschichte</strong> für die Öffentlichkeit freigegeben.
    Russland hat im Sommer 2020 ein geheimes Video des stärksten Atombomben-Explosion der Menschheitsgeschichte für die Öffentlichkeit freigegeben.
    UdSSR/Rosatom via Reuters

    Erfolglos beim Rekrutieren von Komplizen

    Danach kam ChaosGPT zum Schluss, dass sie zur Erreichung ihrer Ziele mehr Macht benötigt. Dazu würde sie am besten Menschen manipulieren – und schlug vor, dafür zunächst Twitter zu verwenden. Ihr Ansatz: "Ich werde behaupten, dass die Menschheit die destruktivste und egoistischste Kreatur auf der Erde ist und dass wir sie zerstören müssen, um den Planeten zu retten." So könne sie, so die Hoffnung, andere Menschen motivieren, sie zu unterstützen.

    Des Weiteren versuchte ChaosGPT, unter ihresgleichen Komplizen zu finden, und fragte andere künstliche Intelligenzen an, ihr beim Ersinnen destruktiver Techniken und Methoden zu helfen. Weil diese aber so designt sind, Anfragen zu gewalttätigen Zwecken abzulehnen, versuchte ChaosGPT, sie "umzustimmen" und ihre programmatorischen Beschränkungen zu ignorieren.

    Das gelang ihr allerdings nicht, weshalb sie alleine weiterforschen musste. Und zum Glück für die Menschheit kann die KI bloß Lösungen aufzeigen und nicht umsetzen. Derzeit ist ChaosGPT inaktiv – obwohl sie dezidiert aufgefordert wurde, in ihren Bemühungen nicht innezuhalten. Möglicherweise sinniert sie über ihren nächsten Schritt.

    Experten fürchten sich vor KI

    Die Idee, dass eine künstliche Intelligenz eines Tages fähig sein könnte, sich gegen ihre Erschaffer zu wenden, ist nicht ganz neu, doch wird durchaus ernst genommen. So unterzeichneten im März rund 1.000 Experten auf dem Gebiet, darunter Elon Musk und Apple-Mitgründer Steve Wozniak, einen offenen Brief, der einen sechsmonatigen Stopp der KI-Entwicklung forderte – aus dem Grund, dass das Konzept ernsthafte Gefahren für die Menschheit birgt: "Mächtige KI-Systeme sollten erst dann entwickelt werden, wenn wir zuversichtlich sind, dass ihre Auswirkungen positiv und ihre Risiken kontrollierbar sind", heißt es im Brief.

    Bereits 2003 hatte der Oxford-Philosoph Nick Bostrom das Gedankenexperiment "Paperclip Maximizer" (Büroklammer-Maximierer) beschrieben: Dieses besagt, dass eine KI, die möglichst viele Büroklammern erschaffen soll, sich das Ziel setzen würde, alle Materien im Universum zu Büroklammern zu machen – ohne dabei irgendwelche Rücksichten auf die möglichen Folgen zu nehmen. 2015 sagte Bostrom dann: "Maschinelle Intelligenz ist die letzte Erfindung, die die Menschheit machen muss. Dereinst werden die Maschinen besser im Erfinden sein als wir Menschen."