Seit der Vorstellung der Video-KI Veo 3 durch Google entstehen mit einfachen Textbefehlen Szenen, die früher wochenlange Produktion und große Budgets erforderten. Neben faszinierenden Möglichkeiten zeigt sich auch eine neue Gefahr: KI-Videos sehen echt aus – sind aber komplett erfunden.
Tools wie "Veo 3", "Sora", "Runway", "Pika" oder "Kling" erschaffen innerhalb kurzer Zeit realitätsnahe Videosequenzen. Im Fall von Veo 3 sogar mit Stimmen, Musik und Geräuschen. Die Eingabe: ein Textprompt oder wenige Bilder. Das Resultat: kurze Clips mit präziser Kameraführung, Lichteffekten und animierten Figuren – sehen echten Videos zum Verwechseln ähnlich.
Solche Produktionen könnten künftig Werbefilme, Musikvideos oder sogar Nachrichtenformate beeinflussen. Was früher Tage dauerte, geht jetzt in Stunden.
Je einfacher die Tools – desto größer das Missbrauchsrisiko. Deepfakes: KI-Videos, die echten Menschen täuschend ähnlich sehen, brauchen kaum noch Tech-Wissen. So lassen sich gezielt Falschinfos streuen – oder Menschen anschwärzen.
Das Sicherheitsunternehmen Trend Micro warnt vor einem konkreten Szenario: Auf TikTok kursieren Videos, die versprechen, Gratis-Versionen von Spotify oder Office freizuschalten. In Wirklichkeit installiert der Befehl Malware auf dem Gerät.
Laut Trend Micro deuten die Clips darauf hin, dass sie automatisiert erstellt sind: gleiche Stimmen, gleiche Perspektive. Stimmen und Clips wurden offenbar von KI erzeugt. Einige der Videos erreichen mehr als eine halbe Million Views.
Obwohl KI-Videos immer realistischer wirken: Einige Fakes verraten sich noch – wenn man genau hinschaut.
Früher war ein Video ein Beweis – heute nicht mehr. KI verändert, wie wir Medien sehen und wem wir glauben. Künftig gilt: Wer nicht prüft, glaubt schneller den Fakes.