Digital

Warum Instagram während Corona weniger Inhalte entfernt

Während der Corona-Pandemie wurden beinahe 80 Prozent weniger schädliche Inhalte von der Plattform Instagram entfernt als normal.

20 Minuten
Teilen
Instagram hat vergangene Woche angekündigt, dass in der EU eine neue Software in der Entwicklung sei, die zu einer verbesserten automatischen Moderation von Inhalten führen soll.<br>
Instagram hat vergangene Woche angekündigt, dass in der EU eine neue Software in der Entwicklung sei, die zu einer verbesserten automatischen Moderation von Inhalten führen soll.
(Bild: iStock)

Insbesondere in Zeiten von Lockdowns und Quarantäne sind Social-Media-Plattformen für ihre Nutzer so wichtig wie nie zuvor, stellen sie doch ein kleines, digitales Fenster zur Außenwelt dar. Um diese Erfahrung so sicher wie möglich zu gestalten, haben Unternehmen wie Instagram oder TikTok schon seit längerer Zeit Content-Moderatoren angestellt, deren Job es ist, potenziell gefährliche Inhalte anzusehen und wenn nötig, zu löschen. Wie Zahlen, die am Donnerstag veröffentlicht wurden, zeigen, wurden während der Monate April bis Juni allerdings beinahe 80 Prozent weniger schädliche Inhalte von der Plattform Instagram entfernt als normal.

Insbesondere betroffen sind Inhalte, die selbstverletzendes Verhalten zeigen oder das Thema Suizid behandeln, wie "BBC" berichtet. Dies kritisiert die Wohltätigkeitsstiftung für Kinder NSPCC scharf. Denn so seien Kinder und Jugendliche in einer ohnehin schon instabilen und schwierigen Zeit deutlich mehr potenziell schädlichen Inhalten ausgesetzt gewesen. Tatsächlich wurden in den Monaten Januar bis März rund 1,3 Millionen solcher Posts entfernt. Während der Monate April bis Juni waren es nur 277.400.

Algorithmen übersehen schädliche Posts

Ein ehemaliger Content-Moderator von Facebook, zu dem auch Instagram gehört, sagt gegenüber der BBC: "Das überrascht mich überhaupt nicht. Sie haben ja alle aus dem Büro nach Hause geschickt. Wer soll denn dann noch die Arbeit erledigen?"

Tatsächlich hat Facebook in der Zeit der Corona-Krise vermehrt auf Algorithmen und AI-unterstützte Moderation ihrer Inhalte gesetzt. Wie sich nun zeigt, haben diese aber viele Posts, die normalerweise als schädlich gekennzeichnet worden wären, übersehen. In einigen Fällen sei dies sogar bei Posts geschehen, bei welchen der Absender selbst eine Trigger-Warnung hinzugefügt habe.

Facebook scheint sich dessen bewusst zu sein, denn mittlerweile wurde ein Großteil der Moderatoren wieder ins Büro zurückbeordert. Dies stieß bei den Mitarbeitern aber auf heftigen Widerstand. Mehr als 330 Content-Moderatoren haben am Mittwoch gemeinsam einen offenen Brief an Mark Zuckerberg veröffentlicht, in welchem sie darum bitten, nicht dazu gezwungen zu werden, ins Büro zurückzukehren. Denn sie fühlten sich dabei unsicher.

Neue Software

Das Unternehmen würde ihre Leben unnötigerweise in Gefahr bringen, heißt es im Brief weiter. Facebook versichert allerdings, dass die Arbeitsbedingungen in den Büros äußerst sicher seien und sogar mehr Vorsichtsmaßnahmen als nötig getroffen worden seien.

Instagram hat außerdem erst letzte Woche angekündigt, dass in der EU eine neue Software in der Entwicklung sei, die zu einer verbesserten automatischen Moderation von Inhalten führen soll. Facebook hält auch fest, dass die Anzahl blockierter Inhalte nach Juni wieder zugenommen habe und sich nun wieder auf einem Niveau wie vor den Corona-Zeiten befände.