Digital

Google nutzt künstliche Intelligenz gegen Terror

Der IT-Riese will auf YouTube aktiv gegen Terror-Propaganda vorgehen. Ein 4-Punkte-Plan soll es Terroristen schwer machen.

Heute Redaktion
Teilen

Nach Facebook hat nun auch Google angekündigt, den Kampf gegen terroristische Inhalte im Netz zu verstärken. Kent Walker, der Chefjurist des Internet-Konzerns, kündigte am Sonntag einen 4-Punkte-Plan an. Dieser umfasst eine Strategie mit künstlicher Intelligenz, freiwilligen Helfern, Warnhinweisen und eine Umleitung auf Anti-Terror-Botschaften.

Damit sollen vor allem bei der Plattform YouTube vermehrt Videos mit Terrorpropaganda aufgespürt und gesperrt werden. Walker betonte, dass Google und andere Internet-Firmen schon seit Jahren daran arbeiteten, solche Inhalte zu finden. Aber "die unbequeme Wahrheit ist, dass wir als Industrie eingestehen müssen, dass noch mehr getan werden muss. Jetzt."

Künstliche Intelligenz

Mit Hilfe von künstlicher Intelligenz soll verstärkt nach kritischen Videos gesucht werden. Mehr als die Hälfte aller gelöschten Inhalte in den vergangenen Monaten wurden bereits von solcher Software entdeckt. Es sei jedoch schwierig, Terrorpropaganda von Nachrichtenmaterial zu unterscheiden.

Freiwillige Helfer

Google setzt auf sogenannte Trusted Flagger, das sind Einzelpersonen oder Organisationen, die anstößige oder rechtswidrige Inhalte markieren. Die Zahl der beteiligten Organisationen soll nun stark erhöht werden, schrieb Walker in einem Beitrag in der "Financial Times".

Warnhinweise

Bei strittigen Inhalten sollen Warnhinweise vor das Video geschaltet werden. Zudem würden die Kommentar-Funktion und die Werbung deaktiviert. So will man verhindern, dass sich einschlägige Kanäle zusätzlich mit Werbeeinnahmen finanzieren.

Kampagnen

Künftig sollen Nutzer, die häufig nach Terror-Inhalten suchen gezielt zu Anti-Terror-Videos umgeleitet werden. Eine ähnliche Maßnahme wurde bereits im letzten Jahr für die Google-Suche angekündigt.

Mit diesen Maßnahmen soll verhindert oder deutlich erschwert werden, dass Terroristen YouTube als Rekrutierungsplattform nutzen. Ob dies gelingt, muss sich noch zeigen. Google reagiert damit auf den Druck aus der Politik, sich des Problems anzunehmen.

Auch Facebook gab vor wenigen Tagen bekannt, dass selbstlernende Maschinen stärker dafür eingesetzt werden, Terror-Inhalte gar nicht erst wieder auf der Plattform durchzulassen. Zudem werde an einem Algorithmus gearbeitet, der durch Textanalyse entsprechende Propaganda erkennen soll. (swe/sda)

;