Sicherheitsrisiko

KI-Agenten: Experten warnen vor Lawine

Autonome KI-Systeme nutzen alle Berechtigungen voll aus. Das kann verheerende Folgen haben, warnen Sicherheitsexperten jetzt eindringlich.
Technik Heute
11.04.2026, 14:07
Hör dir den Artikel an:
00:00 / 02:45
1X
BotTalk
Loading...
Angemeldet als Hier findest du deine letzten Kommentare
Alle Kommentare
Meine Kommentare
Sortieren nach:

Kommentare neu laden
Nach oben

In der Welt der Technik braut sich eine unsichtbare Gefahr zusammen. Wie bei einer Lawine im Hinterland, wo sich unter einer scheinbar stabilen Schneedecke fragile Schichten verbergen, lauern auch bei KI-Agenten verborgene Risiken.

Der Unterschied zwischen Menschen und KI-Systemen ist dabei entscheidend: Während Mitarbeiter die ihnen erteilten Berechtigungen meist nur teilweise nutzen, schöpfen KI-Agenten diese voll aus.

Wie computerwoche.de berichtet, wird diese Eigenschaft zum Problem. Denn die autonomen Systeme handeln mit allen ihnen erteilten Rechten - und das kann desaströse Folgen haben, wenn Sicherheitsaspekte nicht von Anfang an mitgedacht werden.

Angriffe sind keine Zukunftsvision mehr

Die Bedrohung ist real: So könnten Angreifer etwa Schwachstellen bei einem KI-Agenten im Bewerbungsprozess ausnutzen, um an hochsensible Daten zu gelangen. Die Angriffsfläche wächst mit jedem neuen System.

Was also tun? Experten fordern zweckgebundene Identitäten mit minimalen Berechtigungen für KI-Agenten. Die Fähigkeit, eine Aktion zu entwerfen, und die, sie auszuführen, sollten getrennte Berechtigungen erfordern.

Jede Aktion muss umkehrbar sein

Besonders wichtig: Sämtliche destruktive Aktionen sollten mit expliziten Genehmigungen verbunden sein. Und jede einzelne automatisierte Aktion muss protokolliert und vollständig reversibel gestaltet werden.

Die Warnung kommt nicht von ungefähr. Denn bisher blieb der Schaden theoretisch, weil vor allem Menschen am Steuer saßen. Mit KI-Agenten wird er nun konkret - und das erfordert ein Umdenken in der gesamten Branche.

{title && {title} } tec, {title && {title} } 11.04.2026, 14:07
Jetzt E-Paper lesen