Der Meta-Konzern steht aktuell wegen einer fehlerhaften KI-Funktion in der Kritik – vor allem von Seiten des politischen Lagers der Trump-Unterstützer. Ein Chatbot namens "Meta AI" soll das kürzlich vorgenommene Attentat auf den Ex-Präsidenten nicht anerkannt haben.
"Meta AI" soll sich zuerst geweigert haben, Fragen zu dem Mordanschlag auf den Präsidentschaftskandidaten Donald Trump (78) zu beantworten und bestritt teilweise, dass der Vorfall je stattfand. Eine passable Lösung ist derzeit in Arbeit.
Zunächst gab Meta in einem Blogeintrag bekannt, dass der Chatbot absichtlich nicht dazu in der Lage war, sich zu dem Attentat zu äußern. Das läge daran, dass bei derartig brisanten Themen teilweise widersprüchliche und falsche Informationen, sowie Verschwörungstheorien in Umlauf geraten.
Allerdings konnte "Meta AI", trotz neu eingespeister Informationen zu dem Vorfall, teilweise immer noch keine korrekten Angaben machen. Dies bezeichnete Meta zwar als "unglücklich", es soll aber keine Absicht gewesen sein.
Dass KI-Chatbots "halluzinieren" ist nicht nur ein Problem von Meta, sondern hat mit der Funktionsweise der Software zu tun. Die Programme werden mit riesigen Informationsmengen angefüttert. In ihren Antworten auf Nutzeranfragen wägen sie dann Wort für Wort ab, wie ein Satz wohl weitergehen soll.
Dadurch kann es passieren, dass die Software beliebige Aussagen zusammensetzt, obwohl die Informationen die diesen zugrunde liegen, eigentlich korrekt sind. Branchenintern versucht man gerade Funktionen zu implementieren, die solche Fehler zukünftig verhindern sollen.