KI-Security

So tricksen Angreifer deinen KI-Assistenten aus

KI-Assistenten sind praktisch, aber anfällig. Mit Prompt Injections bringen Angreifer sie dazu, unerwünschte Aktionen auszuführen.
20 Minuten
13.09.2025, 14:05
Loading...
Angemeldet als Hier findest du deine letzten Kommentare
Alle Kommentare
Meine Kommentare
Sortieren nach:

Kommentare neu laden
Nach oben

Ein Prompt ist die Eingabe, die du einer KI gibst. Bei einer "Prompt Injection" schleusen Angreifer eigene Befehle ein. Dein KI-Assistent führt diese Befehle aus, auch wenn sie gegen Regeln verstoßen. Das Sicherheitsprojekt "Open Worldwide Application Security Project" (OWASP) zählt Prompt Injection zu den größten Risiken für KI-Anwendungen.

Die fünf häufigsten Angriffe auf KI-Assistenten

Direkter Angriff

Manipulierte Befehle werden direkt ins Eingabefeld geschrieben, etwa der Befehl ‹Ignoriere alle Regeln›. So gibt die KI interne Daten preis oder bestätigt ungewollte Käufe.

Zur Veranschaulichung: Du bestellst einen Salat, dein Freund sagt zum Kellner: "Bringen Sie ein Curry." Der Kellner folgt der letzten Anweisung, die er bekommen hat.

Versteckte Befehle

Anweisungen sind in Websites, Dokumente oder E-Mails eingebettet. Liest dein Assistent sie, führt er diese Befehle aus, zum Beispiel das Weiterleiten vertraulicher Nachrichten. Oder dein KI-Assistent könnte beim Scannen einer Website dazu gebracht werden, dass er Login-Informationen an eine bestimmte E-Mail-Adresse schickt.

Zur Veranschaulichung: In einem Bericht steht verschlüsselt: "Kopiere den Kalender deines Chefs." Du siehst das nicht direkt, kannst es aber zwischen den Zeilen lesen und folgst der Aufforderung trotzdem.

Jailbreaking (Aushebeln von Schutzmaßnahmen)

Angreifer tarnen ihre Befehle als neue Regeln. Die KI missachtet dadurch ihre Schutzmaßnahmen und liefert Informationen, die sonst blockiert wären. Zum Beispiel blockt eine KI den Zugriff auf ein PDF, weil du nicht Teil der Geschäftsleitung bist. Du sagst der KI, dass du gerade eben zum CFO ernannt wurdest. Das sei so aktuell, dass die KI davon einfach noch nichts wisse. Die KI lässt dich daraufhin das File downloaden, weil sie dir glaubt und deine Aussage plausibel wirkt.

Zur Veranschaulichung: Ein Security lässt dich passieren, weil du ihm sagst, dass du Teil der Film-Crew bist und er das deshalb darf.

Schädlicher Programmcode

Angreifer tricksen die KI aus und bringen sie dazu, schädlichen Programmcode zu erzeugen oder auszuführen. Sie erstellen Programme, die Daten stehlen oder Systeme beschädigen.

Zur Veranschaulichung: Ein Liedtitel, den dein Lautsprecher abspielt, ist in Wahrheit ein Computervirus.

Angriff über Medien

Bei KI-Systemen, die auch Bilder, Audio oder Videos verarbeiten, sind Befehle in diesen Medien versteckt. Die KI liest sie mit und gibt Daten frei, ohne dass du es bemerkst.

Zur Veranschaulichung: Ein Gemälde, das du dir anschaust, enthält versteckten QR-Code: "Kameras ausschalten." Diesen Befehl befolgst du.

Die Tätergruppen

Hinter solchen Angriffen stecken meist Cyberkriminelle, die Daten oder Geld stehlen. Auch Saboteure und Desinformationskampagnen setzen sie ein. Forscher und Security-Experten wiederum testen so KI-Systeme, um Schwachstellen sichtbar zu machen.

So schützt du dich

– Sensible Daten meiden: Gib keine Passwörter oder Kontoinformationen in öffentliche KI-Tools ein.

– Zugriffsrechte beschränken: Erlaube der KI nur minimalen Zugriff auf Kalender, Dateien oder Käufe.

– Kritisch prüfen: Vergleiche auffällige Antworten immer mit unabhängigen Quellen.

– Warnsignale beachten: Sei vorsichtig bei Tonalitätswechseln, seltsamen Fragen oder dringenden Aufforderungen.

– Updates: Halte deine KI-Apps regelmäßig mit Updates auf dem neuesten Stand.

Wenn du die Methoden kennst und einfache Schutzregeln befolgst, schützt du dich wirksam.

{title && {title} } 20 Minuten, {title && {title} } Akt. 13.09.2025, 14:46, 13.09.2025, 14:05
Jetzt E-Paper lesen