Multimedia

Facebook zahlt kranken Moderatoren 52 Millionen

Ein kalifornisches Gericht hat entschieden, dass Facebook seinen Moderatoren eine hohe Schadenersatzsumme zahlen muss. Viele seien psychisch stark belastet.

Teilen
    Der Social-Media-Gigant Facebook hat zugestimmt, Moderatoren von problematischen Inhalten 52 Millionen Dollar Schadenersatz zu zahlen.
    Der Social-Media-Gigant Facebook hat zugestimmt, Moderatoren von problematischen Inhalten 52 Millionen Dollar Schadenersatz zu zahlen.
    iStock

    Der Social-Media-Gigant Facebook hat zugestimmt, Moderatoren von problematischen Inhalten 52 Millionen Dollar Schadenersatz zu zahlen. Das Geld soll laut BBC an Personen gehen, die durch ihre Arbeit psychisch stark in Mitleidenschaft gezogen wurden und auch heute noch an posttraumatischen Belastungsstörungen leiden. Das hatten die Betroffenen zuvor in einer Sammelklage verlangt.

    Bei Facebook arbeiten Menschen und künstliche Intelligenzen zusammen, um problematische Inhalte aus dem sozialen Netzwerk zu entfernen. Im Jahr 2018 verklagte eine Gruppe von Moderatoren den Konzern, da sie laut der Klage unter nicht tragbaren Arbeitsbedingungen arbeiten mussten. So gehörte es beispielsweise zu ihrem Job, brutales Bild- oder Videomaterial anzuschauen, unter anderem von Vergewaltigungen oder Suiziden. Dadurch entwickelten einige Moderatoren eine posttraumatische Belastungsstörung.

    Mehr Ressourcen für Algorithmen

    Die Übereinkunft über die Schadenersatzzahlung wurde am Freitag von einem Gericht in Kalifornien gefällt. Davon profitieren können Moderatoren, die zwischen 2015 und heute in Kalifornien, Arizona, Texas und Florida gearbeitet haben. Jedem Einzelnen stehen mindestens 1.000 Dollar zu – solchen Personen, die mit einer psychischen Störung diagnostiziert wurden, wird noch mehr Geld ausbezahlt. Insgesamt erhalten 11.250 Personen Schadenersatz.

    Außerdem hat Facebook zugestimmt, mehr Ressourcen in die Algorithmus-basierte Moderation problematischer Inhalte zu investieren. Ein Sprecher des Konzerns versicherte, dass man sich dazu verpflichtet fühle, Moderatoren auch in Zukunft zusätzliche Unterstützung bereitzustellen.

    Menschen arbeiten nach wie vor besser

    Wie Facebook mitteilte, habe die Moderation von künstlicher Intelligenz während der Corona-Zeit rund 90 Prozent aller Moderationsarbeit ausgemacht. Die menschliche Arbeit sei darüber hinaus zurückgegangen, da nicht alle Moderationen problemlos von zu Hause aus durchgeführt werden können. Nach wie vor gilt aber, dass Algorithmen vor allem Probleme damit haben, problematische Inhalte in Videos aufzuspüren. Es gelingt Menschen noch immer besser, Nuancen wie Sarkasmus, Memes oder Wortspiele in bewegtem Bildmaterial zu erkennen.

    Facebook steckt momentan in der Entwicklung eines neuen neuralen Netzwerks, das den Namen SimSearchNet trägt. Dieses soll Bilder erkennen können, die Kopien eines anderen Bildmaterials sind, welches falsche oder irreführende Informationen enthält. Das soll es menschlichen Moderatoren erlauben, sich ausschließlich auf neues Material zu konzentrieren, statt immer wieder dasselbe problematische Material durchgehen zu müssen.

    Mehr zum Thema
    ;