Apple-Vorstoß sorgt für heftige Kritik

Um stärker gegen Kinderpornografie vorzugehen, kündigte Apple an, private Bilder seiner Nutzer auf illegale Fotos zu scannen. Nun hagelt es Kritik.
Um stärker gegen Kinderpornografie vorzugehen, kündigte Apple an, private Bilder seiner Nutzer auf illegale Fotos zu scannen. Nun hagelt es Kritik.AFP/Philip Fong
Um stärker gegen Kinderpornografie vorzugehen, kündigte Apple an, private Bilder seiner Nutzer auf illegale Fotos zu scannen. Nun hagelt es Kritik. 

Anfang des Monats hat Apple mitgeteilt, verstärkt gegen die Verbreitung von illegalem Bildmaterial wie Kinderpornografie vorgehen zu wollen. Damit soll ein Beitrag zur Sicherheit von Kindern geleistet werden, da die Verbreitung von solch illegalen Fotos nach wie vor ein großes Problem im Online-Raum darstellt. Nun erntet das Unternehmen aber heftige Kritik für die Art und Weise, wie es diesen Plan umsetzen will.

 Im Zentrum der Kritik steht die Technologie, die Apple zur Aufspürung der illegalen Bilder verwenden möchte.

Diese scannt nämlich automatisch Fotos auf iOS-Geräten wie iPhones, iPads, Apple Watches und Apple-Computern sowie in der iCloud. Außerdem soll Nutzern neu eine opt-in-Funktion zur Verfügung stehen, die automatisch Bilder scannt, die von Minderjährigen über iMessage verschickt werden. Falls der Algorithmus Nacktbilder erkennt, die verschickt oder empfangen werden, können diese automatisch verpixelt werden.

Bilder können nicht einfach so eingesehen werden

Wer nun befürchtet, dass Apple alle Bilder in der privaten Bildergalerie des iPhones oder in der iCloud einsehen wird, kann beruhigt werden. Das Unternehmen erhält nach wie vor keinen direkten Zugriff auf private Fotos. Viel eher erhält jedes Bild neu einen eigenen Hash – also eine lange Abfolge von Zahlen – zugeschrieben. Anschließend wird dieser Hash und nicht das Bild selbst mit einer Datenbank an bekannten, illegalen Bildern verglichen. Nur wenn zwei solche Hashs übereinstimmen und dies mehrfach vorkommt, können die betroffenen Bilder entschlüsselt, von einer echten Person begutachtet und den Behörden übergeben werden.

Ähnlich verhält es sich mit den über iMessage verschickten Bildern von Minderjährigen. Auch hierbei kann Apple die Bilder nicht einsehen. In diesem Fall läuft der ganze Prozess gar auf dem Gerät selbst ab und bleibt also von Anfang bis zum Schluss privat.

Scharfe Kritik

Dennoch kritisieren Experten weltweit die neue Apple-Technologie scharf. Hauptkritikpunkt dabei ist die Tatsache, dass eine solche Technologie gefährlich werden könnte, wenn sie in die falschen Hände – beispielsweise eines autoritären Regimes – gerät. Edward Snowden nennt die neue Technologie in einem Tweet beispielsweise ein "Risiko für die nationale Sicherheit". Ähnlich sieht dies Will Cathcart, Chef von Whatsapp. 

 Auf Twitter schreibt er: "Diese Herangehensweise bringt so viele Probleme mit sich. Es ist beunruhigend, zu sehen, dass Apple agiert, ohne Experten zu Rate zu ziehen."

Nun hat sich Apple erstmals zu dieser Kritik geäußert. "Apple wird jegliche solche Anfragen [von Regierungsorganisationen] ablehnen", heißt es in einem Statement. "Bereits in der Vergangenheit haben wir Anfragen von Regierungen erhalten, unsere Sicherheitssysteme auf eine von der Regierung beauftragte Weise anzupassen, und wir haben diese Anfragen jedes Mal rigoros abgelehnt. Das werden wir auch in Zukunft tun."

Kinderorganisationen befürworten den Schritt

Apple ist nicht das einzige Tech-Unternehmen, das versucht, kinderpornografische Inhalte aufzuspüren. Allerdings ist es das einzige Unternehmen, das dies auf den Endgeräten der Nutzerinnen und Nutzer selbst tut. Andere Konzerne spielen bei der Suche nach solchem Bildmaterial beispielsweise Warnungen aus oder überprüfen Fotos, die in ihre Cloud-Server geladen werden.

Es gibt aber auch Organisationen, die voll hinter Apples Technologie stehen. So beispielsweise die New York Society for the Prevention of Cruelty to Children. Chefin Mary Pulido sagt zu CNN: "Das ist eine wichtige Technologie, die der Polizei dabei helfen kann, Händler von Kinderpornografie aufzuspüren, Opfer schneller aufzufinden und die Recherchezeit zu verkürzen." Der Schutz der Kinder sei laut Pulido wichtiger, als die Privatsphäre der Nutzerinnen und Nutzer auf alle Kosten zu schützen.

CommentCreated with Sketch. Jetzt kommentieren Arrow-RightCreated with Sketch.
Nav-Account 20 Minuten Time| Akt:
AppleTechnologieDigitalUSAiPhoneKinderPornografie

ThemaCreated with Sketch.Weiterlesen