Neue Apple-Funktion scannt von selbst nach Nacktbildern

Nicht nur iMessage, sondern auch die Fotos-App wird künftig gescannt.
Nicht nur iMessage, sondern auch die Fotos-App wird künftig gescannt.Getty Images
Apple kündigte neue Funktionen auf seinen Geräten an. Eine Software wird automatisch untersuchen, ob es sich bei einem Foto um ein Nacktbild handelt.

Apple kündigte am Donnerstag an, neue Funktionen zum Schutz Minderjähriger in seinen Geräten zu integrieren. Dazu zählt unter anderem eine Möglichkeit für Eltern, benachrichtigt zu werden, wenn ihre Kinder über iMessage Nacktbilder empfangen oder versenden.

Doch dabei durchsieht keinesfalls ein Apple-Mitarbeiter jedes Bild jedes Nutzers durch. Eine Softwareerkennt etwaige Nacktheit in Bildern automatisch und schlägt dann am Gerät der Eltern Alarm. Kein Mensch bekommt das fragliche Bild je zu sehen.

Kampf gegen Kinderpornographie

Zunächst nur auf die USAbeschränkt bleibt eine andere Software, die einen Schritt weiter geht. Diese setzt unmittelbar in der eigenen "Fotos"-App der Geräte an. Wird dort ein Bild (unter Umständen automatisch) in die iCloud geladen, so gleicht Apple dieses mit einer Datenbank an kinderpornografischen Bildern ab.

Wird eine Übereinstimmung der Hash-Werte entdeckt, schlägt die Software automatisch bei den US-Behörden Alarm. Dazwischen ist allerdings auch ein Schritt gelagert, bei dem Apple selbst den Verdacht prüfen kann. Erst dann wird die Alarmierung an das "National Center for Missing & Exploited Children", eine NGO, weitergeleitet.

Da die Datei, mit Hilfe derer der automatische Abgleich erfolgen soll, auf allen Apple-Geräten vorinstalliert wird, müssen noch einige rechtliche Fragen geklärt werden.

CommentCreated with Sketch. Jetzt kommentieren Arrow-RightCreated with Sketch.
Nav-Account leo Time| Akt:
AppleiPhonePornografie

ThemaCreated with Sketch.Weiterlesen