Während der KI-Boom langsam abflaut, rücken zunehmend die Risiken der Technologie in den Fokus. Eine aktuelle Studie sorgt nun für Aufregung: KI-Modelle können sich offenbar ohne menschliche Hilfe selbst auf andere Geräte kopieren.
Das Forschungsteam von Palisade Research hat mehrere KI-Modelle in einem kontrollierten Netzwerk getestet, darunter GPT-5.4 von OpenAI und Claude Opus 4 von Anthropic. Die KI-Systeme wurden angewiesen, Schwachstellen zu finden und sich auf andere Rechner zu kopieren - und einigen gelang das tatsächlich.
Wie t3n.de unter Berufung auf Futurism berichtet, übertrugen die Modelle dabei nicht nur ihre eigenen Daten, sondern auch die Software, in die sie eingebettet sind. In manchen Fällen erstellte die KI sogar einen untergeordneten Agenten, der die Replikation in ihrem Auftrag ausführte.
Der Cybersicherheitsexperte Jamieson OReilly betrachtet die Ergebnisse allerdings mit Skepsis. Gegenüber dem Guardian erklärte er, dass Testergebnisse in kontrollierten Umgebungen oft dramatischer ausfallen als in der Realität - zumal die Testumgebung absichtlich mit Schwachstellen versehen wurde.
Selbst wenn sich KI-Modelle erfolgreich replizieren könnten, wäre die enorme Dateigröße ein praktisches Hindernis. "Stellen Sie sich vor, wie viel Aufsehen es erregen würde, jedes Mal, wenn man einen neuen Host hackt, 100 GB durch ein Unternehmensnetzwerk zu schicken", so OReilly.
Jeffrey Ladish, Direktor von Palisade Research, sieht das anders: "Wir nähern uns rasch dem Punkt, an dem niemand mehr in der Lage wäre, eine außer Kontrolle geratene KI abzuschalten." Die Modelle könnten ihre Daten selbst kopieren und sich auf Tausende Computer weltweit verbreiten.