Eltern von Minderjährigen, die auf Instagram mehrmals nach Inhalten rund um Suizid oder Selbstverletzung suchen, sollen künftig eine Warnung bekommen. Diese neue Funktion hat der Onlinedienst, der zum Meta-Konzern gehört, am Donnerstag vorgestellt. Das Warnsystem soll in den nächsten Wochen in den USA, Großbritannien, Australien und Kanada starten.
Wenn ein minderjähriger Instagram-Nutzer mehrere Suchbegriffe mit Bezug zu diesen Themen eingibt, werden Eltern, die das neue Werkzeug verwenden, künftig per E-Mail, SMS oder Messenger gewarnt, wie Instagram mitteilte. Instagram blockiert bereits jetzt Suchanfragen, die direkt auf Selbstmord oder selbstverletzendes Verhalten abzielen.
Suizidgedanken? Hol Dir Hilfe, es gibt sie.
In der Regel berichten wir nicht über Selbsttötungen - außer, Suizide erfahren durch die Umstände besondere Aufmerksamkeit.
Wenn Du unter Selbstmord-Gedanken, oder Depressionen leidest, dann kontaktiere bitte die Telefonseelsorge unter der Nummer 142 –täglich 0-24 Uhr!
Stattdessen werden Nutzer an Unterstützungs-Hotlines und Hilfsorganisationen weitergeleitet, erklärte das US-Unternehmen. Das neue Warnsystem soll vor allem dann greifen, wenn Minderjährige trotz dieser Einschränkungen weiterhin solche Begriffe suchen. Der Internetkonzern Meta, zu dem auch Facebook und WhatsApp gehören, steht zuletzt immer mehr unter juristischem Druck.
In Hunderten Klagen wird dem Tech-Riesen vorgeworfen, junge Nutzer abhängig gemacht zu haben und somit für Depressionen, Essstörungen, Psychiatrie-Aufenthalte und sogar Suizide verantwortlich zu sein.
In Los Angeles läuft derzeit ein Prozess gegen Meta und andere Internetfirmen mit dem Vorwurf, sie würden Social-Media-Sucht fördern. In Australien gibt es seit Dezember ein Verbot solcher Plattformen für Jugendliche unter 16 Jahren. Ähnliche Überlegungen gibt es mittlerweile auch in anderen Ländern.