KI-generiertes Bild mit dem Spitznamen "Shrimp Jesus": Solche skurrilen Resultate sind typische Beispiele für sogenannten AI Slop – massenhaft produzierte, oft sinnfreie Inhalte aus Künstlicher Intelligenz.
Meta/KI-generiert
"AI Slop" nennt sich ein neuer Begriff für Inhalte, die mit künstlicher Intelligenz erstellt werden – automatisiert, in großer Menge und vor allem auf Klicks ausgerichtet. Dazu gehören etwa künstlich generierte Rezepte, surreale Bilder oder automatisierte Texte.
Nicht alle KI-Inhalte sind problematisch. Viele Anwendungen in Kunst oder Forschung zeigen, dass sich die Technologie sinnvoll nutzen lässt. Die Kritik richtet sich vor allem gegen Inhalte, die kaum Informationswert bieten und nur auf Reichweite zielen.
Was ist "AI Slop"?
AI Slop bezeichnet Inhalte, die durch künstliche Intelligenz erzeugt wurden, um viral zu gehen – oft sind sie absurd, übertrieben oder irreführend. Sie bieten viel Show, aber wenig Substanz.
Solche Inhalte wirken auf den ersten Blick seriös oder unterhaltsam – liefern aber wenig Substanz. Und sie verdrängen zunehmend Beiträge von echten Personen oder Redaktionen – das verärgert die Fans.
Warum bekommst du sie angezeigt?
Plattformen wie TikTok, Instagram oder YouTube bewerten Inhalte nach Reaktionen. Was polarisiert oder auffällt, wird bevorzugt gezeigt – unabhängig davon, wie es entstanden ist. KI-Inhalte erzeugen viele Interaktionen und lassen sich kostengünstig in Massen produzieren.
Wer profitiert davon?
Plattformen: Mehr Klicks = mehr Werbeeinnahmen
Werbe-Webseiten: Generieren billig Inhalte am Fliessband, um Reichweite zu verkaufen
SEO-Farmen: Optimieren KI-Inhalte für Suchmaschinen-Rankings, um Traffic abzugreifen
Politische Gruppen & Betrüger: Nutzen Slop für Manipulation, Fake News oder Phishing
Wie sich dein Feed dadurch verändert:
Du siehst seltener Beiträge von echten Menschen.
Du bekommst Inhalte angezeigt, die sich oft wiederholen oder wenig Substanz haben.
Dein Vertrauen in digitale Inhalte nimmt ab – besonders bei Bildern und Videos.
Das Internet wird dadurch unübersichtlicher und schwieriger einzuordnen.
Was Plattformen unternehmen – und was nicht
Pinterest bietet eine Funktion, um KI-Bilder gezielt auszublenden. Meta versucht automatisch generierte Inhalte zu markieren. Gleichzeitig bauen aber dieselben Unternehmen ihre eigenen KI-Systeme aus.
So kennzeichnen Plattformen KI-Inhalte
Pinterest:
Label: KI-generierte oder bearbeitete Bilder tragen den Hinweis "KI-modifiziert" (engl. "AI modified"), sichtbar unten links in der Detailansicht.
Erkennung: Kombination aus Metadaten (z. B. von Adobe Firefly oder Google SynthID) und eigener Erkennung, auch bei fehlenden Metadaten. Nicht 100 Prozent erfolgreich.
Nutzerkontrolle: In Kategorien wie Kunst oder Beauty lässt sich einstellen, ob man weniger KI-Inhalte sehen möchte – direkt über das Drei-Punkte-Menü.
Widerspruch: Content-Ersteller können Einspruch einlegen, wenn ein Bild fälschlich als KI-generiert markiert wurde.
Meta (Facebook, Instagram):
Label: Der Hinweis "AI info" erscheint meist im Menü oben rechts, nicht direkt am Bild. Frühere Labels hießen "Made with AI" oder "Mit KI kreiert".
Erkennung: Inhalte sollen automatisch oder manuell markiert werden – etwa bei Vorliegen von Metadaten oder KI-Signalen (Microsoft, OpenAI, Adobe, aber z. B. nicht Midjourney).
Transparenz: Die Hinweise sind weniger auffällig als bei Pinterest. Oft ist unklar, ob der Inhalt komplett oder nur teilweise KI-basiert ist.
Kritik durch Meta-Aufsichtsrat (25. Juni 2025):
Das unabhängige Oversight Board kritisierte Meta für den mangelhaften Umgang mit KI-Inhalten.
Fallbeispiel: Ein Deepfake-Video mit Ronaldo, das betrügerisch für ein Glücksspiel warb, blieb trotz Beschwerden mehrere Tage lang online.
Die Kennzeichnung als "AI info" reichte laut Board nicht aus – Nutzer wurden in die Irre geführt.
Gefordert werden bessere Moderation, klarere Regeln und eine transparente Kennzeichnung von Deepfakes.
Plattformen steuern, was sichtbar ist – und Nutzer haben nur begrenzt Einfluss darauf, wie sich Inhalte verbreiten. Trotzdem lohnt es sich, aufmerksam zu bleiben.
So behältst du (ein wenig) Kontrolle über deinen Feed:
Reagiere bewusst: Was du klickst oder likst, beeinflusst deinen Algorithmus.
Folge echten Accounts: Menschen statt Maschinen liefern relevantere Inhalte.
Halte die Augen offen: Hinterfrage überinszenierte oder extreme Inhalte.
Teile gezielt: Echte Inhalte brauchen Sichtbarkeit.
Was sich langfristig ändern müsste
Trotz aller Tipps: Die nötige Veränderung braucht klare Vorgaben der Plattformen – nicht nur das Verhalten einzelner User. Ohne Transparenz und Regeln für KI wird die Slop-Flut weiter wachsen.
Die meistgelesene Story in "Life" ist "". Ist dir etwas aufgefallen oder hast du Input für uns, dann schreib uns.