Staatliche Akteure nutzen schon länger Bot-Netzwerke oder menschliche Troll-Fabriken, um in sozialen Netzwerken Falschmeldungen zu verbreiten. Ziel ist es, gesellschaftliche Spannungen zu vertiefen oder den eigenen Einfluss zu vergrößern. Doch jetzt droht eine neue Gefahr: KI-Agenten, die solche Kampagnen vollautomatisch steuern.
Eine Studie eines internationalen Forschungsteams zeigt, dass auf großen Sprachmodellen basierende KI-Agenten eigenständig Strategien entwickeln können. Anders als klassische Bots, die mit starren Skripten arbeiten, sind sie für Erkennungsalgorithmen und Menschen viel schwieriger zu erkennen.
Wie t3n unter Berufung auf Golem berichtet, setzten die Forscher im Rahmen ihrer Studie bis zu 500 KI-Agenten ein. Diese bewarben fiktive Kandidaten und bestimmte Schlagwörter - ganz ohne spezielle Anweisungen. Sobald klar war, wer zum Team gehörte, begannen sie automatisch, die Reichweite gegenseitig zu verstärken.
"Das ist keine Zukunftsmusik mehr, sondern technisch schon möglich", erklärt Luca Luceri vom Information Sciences Institute der University of Southern California. Die möglichen negativen Auswirkungen könnten Wahlen, die öffentliche Gesundheit oder die Wirtschaftspolitik betreffen.
Besonders bedrohlich: Solche KI-gesteuerten Kampagnen sind im Vergleich zu menschlichen Troll-Fabriken deutlich günstiger. Das senkt die Hürden für staatliche oder politische Akteure, die Desinformation verbreiten wollen. Randmeinungen könnten so als Mainstream erscheinen und die Polarisierung massiv verschärfen.
Die Forscher fordern, dass Social-Media-Plattformen künftig das kollektive Verhalten von Accounts analysieren, statt nur Einzelinhalte zu prüfen. Ob Plattformen wie X oder Facebook ohne politischen Druck entsprechende Maßnahmen ergreifen, bleibt allerdings fraglich.