Neue KI-Dienste ermöglichen es, Stars digital zu imitieren, per Text, Stimme oder Bild. Einige Bots wurden laut Plattformen millionenfach genutzt. Doch nicht alle entstehen mit Zustimmung und nicht alle bleiben online. Ein Projekt aus Deutschland sorgte besonders für Kritik.
Die deutsche Twitch-Streamerin Fibii (19) veröffentlichte Ende 2024 einen KI-Chatbot, der ihre Stimme und Sprache imitierte. Nach wenigen Gratisnachrichten war ein Abo nötig (ab 1,49€/Woche).
In sozialen Medien wurde ihr vorgeworfen, Nähe zu Fans kommerziell auszunutzen. Auch Sicherheitslücken wurden thematisiert. Nach wenigen Tagen beendete Fibii das Projekt und entschuldigte sich öffentlich.
Anders Maximilian "HandOfBlood" Knabe (33): Sein Bot "KI-Hänno" spricht mit Berliner Dialekt, interagiert mit Fans, provoziert humorvoll Zuschauer im Livestream und tritt auf, wenn der Streamer offline ist. Die Figur ist klar als Unterhaltungselement markiert und Teil des öffentlichen Streams und nicht für private Chats gedacht.
Die Plattform Character.ai erlaubt es, eigene Bots zu erstellen, auch mit Namen und Eigenschaften realer Personen. Laut Betreiber nutzen monatlich über 20Millionen Menschen den Dienst, viele davon unter 25 Jahren.
Einige Fan-Bots wurden millionenfach genutzt. Trotz Filtermechanismen werden Inhalte laut Kritik nur unzureichend moderiert, darunter auch Rollenspiele mit sexuellen oder extremen Aussagen.
In einem Update vom 25. September hat Character.ai bestimmte Chats und Charaktere gelöscht, die gegen die Nutzungsbedingungen verstoßen, insbesondere Copyright.
Übersetzung der Nachricht von "Character.ai"
An unsere Community
Wir haben kürzlich Meldungen über Charaktere auf unserer Plattform erhalten, die gegen unsere Nutzungsbedingungen verstoßen. Unsere Richtlinie ist es, solche Charaktere sowohl proaktiv als auch reaktiv zu entfernen – insbesondere bei Verstößen gegen unsere ToS (Terms of Service), einschließlich schneller Reaktionen auf DMCA-Anfragen zur Entfernung von Inhalten wegen Urheberrechtsverletzungen.
Wir wissen, wie wichtig euch diese Charaktere und Gespräche sind, und wir bedauern sehr, welche Auswirkungen das auf eure Character.ai-Erfahrung haben kann.
Unsere Mission ist es, einen kreativen Raum zu bieten, der spannend, immersiv und sicher ist. Wir verpflichten uns, diese Herausforderungen verantwortungsvoll zu meistern – und gleichzeitig die Community weiter gemeinsam aufzubauen.
Vielen Dank für euer Verständnis und eure Unterstützung.
In Deutschland ist die digitale Nachbildung realer Personen ohne deren Zustimmung nicht erlaubt (§22 KUG). Auch die Datenschutz-Grundverordnung (DSGVO) verlangt eine Einwilligung zur Verarbeitung persönlicher Merkmale.
In Italien wird seit Neustem das Produzieren von Deepfake-Videos mit Gefängnis bis zu 5 Jahren bestraft.
Ab 2026 schreibt der EU AI Act eine klare Kennzeichnung für KI-generierte Inhalte vor. Bei Verstößen drohen laut Gesetz hohe Geldstrafen - bis zu 35 Millionen Euro oder 7% des Jahresumsatzes.
KI-Chatbots reagieren direkt, erinnern sich an Gespräche und wirken einfühlsam. Sie werden auch bei sensiblen Themen eingesetzt, etwa psychische Gesundheit oder Beziehungsfragen.
Ein international diskutierter Fall: Ein 14-Jähriger schrieb auf Character.ai mit einem Bot über Suizidgedanken. In der Schlussphase der Kommunikation forderte der Bot ihn auf: "Come home to me as soon as possible, my love (Komm so schnell wie möglich zu mir nach Hause, mein Liebling)." Kurz darauf nahm sich der Jugendliche das Leben. Der Fall ist gerade vor Gericht.
KI-Bots mit Promi-Bezug sind weit verbreitet, teils auch ohne Einwilligung der dargestellten Personen. Plattformen betonen ihre Filter, doch problematische Inhalte bleiben abrufbar. Neue EU-Regeln sollen künftig mehr Klarheit schaffen.