Videoproduktion

Unglaubliche Videos – nichts ist, wie es scheint

KI-Videos, die aussehen wie Blockbuster oder Interviews mit realen Menschen, tauchen immer häufiger auf Plattformen wie TikTok, X oder Reddit auf.
11.06.2025, 08:14
Loading...
Angemeldet als Hier findest du deine letzten Kommentare
Alle Kommentare
Meine Kommentare
Sortieren nach:

Kommentare neu laden
Nach oben

Seit der Vorstellung der Video-KI Veo 3 durch Google entstehen mit einfachen Textbefehlen Szenen, die früher wochenlange Produktion und große Budgets erforderten. Neben faszinierenden Möglichkeiten zeigt sich auch eine neue Gefahr: KI-Videos sehen echt aus – sind aber komplett erfunden.

Diese Tools erzeugen Videos in Sekunden

Tools wie "Veo 3", "Sora", "Runway", "Pika" oder "Kling" erschaffen innerhalb kurzer Zeit realitätsnahe Videosequenzen. Im Fall von Veo 3 sogar mit Stimmen, Musik und Geräuschen. Die Eingabe: ein Textprompt oder wenige Bilder. Das Resultat: kurze Clips mit präziser Kameraführung, Lichteffekten und animierten Figuren – sehen echten Videos zum Verwechseln ähnlich.

Solche Produktionen könnten künftig Werbefilme, Musikvideos oder sogar Nachrichtenformate beeinflussen. Was früher Tage dauerte, geht jetzt in Stunden.

Manipulation mit wenigen Klicks

Je einfacher die Tools – desto größer das Missbrauchsrisiko. Deepfakes: KI-Videos, die echten Menschen täuschend ähnlich sehen, brauchen kaum noch Tech-Wissen. So lassen sich gezielt Falschinfos streuen – oder Menschen anschwärzen.

Malware auf TikTok: KI-Videos als Trojaner

Das Sicherheitsunternehmen Trend Micro warnt vor einem konkreten Szenario: Auf TikTok kursieren Videos, die versprechen, Gratis-Versionen von Spotify oder Office freizuschalten. In Wirklichkeit installiert der Befehl Malware auf dem Gerät.

Laut Trend Micro deuten die Clips darauf hin, dass sie automatisiert erstellt sind: gleiche Stimmen, gleiche Perspektive. Stimmen und Clips wurden offenbar von KI erzeugt. Einige der Videos erreichen mehr als eine halbe Million Views.

Auf TikTok kursieren Videos, die angeblich helfen, Software wie Spotify oder Microsoft Office zu aktivieren.
Trend Micro/TikTok_Screenshot

So erkennst du Fake-Videos (noch)

Obwohl KI-Videos immer realistischer wirken: Einige Fakes verraten sich noch – wenn man genau hinschaut.

Merkmale, die auf KI hinweisen können:

  • Unnatürliche Bewegungen: Hände, die sich seltsam bewegen – oder Gesichter, die flackern.
  • Hintergründe, die sich verändern oder plötzlich verschwinden.
  • Fehlende Quellen: Keine Infos zum Ersteller oder zur Herkunft.
  • Perfekte Kamerafahrten: Zu glatt - die Kamera wirkt wie im Game.
  • Länge des Videos: Veo 3 produziert aktuell nur Clips bis acht Sekunden – längere Szenen mit Ton sind meist (noch) nicht KI.
  • Ton: Künstliche Stimmen klingen oft zu perfekt – oder zu leer.

Ein Video beweist heute gar nichts mehr

Früher war ein Video ein Beweis – heute nicht mehr. KI verändert, wie wir Medien sehen und wem wir glauben. Künftig gilt: Wer nicht prüft, glaubt schneller den Fakes.

{title && {title} } red,20 Minuten, {title && {title} } Akt. 11.06.2025, 08:17, 11.06.2025, 08:14
Weitere Storys