Multimedia

Infos zu Plänen für private iPhone-Bilder verschwunden

Apples Plan, iPhones nach Kinderpornografie zu durchsuchen, ist verschwunden. Ein Sprecher erklärt, was nun mit Privatbildern geschehen soll.

20 Minuten
Teilen
1/8
Gehe zur Galerie
    Apple hatte die Bilder auf iPhones nach Kindesmisshandlung durchsuchen wollen.
    Apple hatte die Bilder auf iPhones nach Kindesmisshandlung durchsuchen wollen.
    Unsplash

    Im Sommer dieses Jahres ist bekannt geworden, dass Apple verstärkt gegen Kinderpornografie vorgehen möchte. Dafür wurde angekündigt, dass der Konzern die Bildergalerien von iPhones und in der iCloud seiner Nutzerinnen und Nutzer durchsuchen werde. Dies stieß bei Kritikern und Kritikerinnen und Fürsprechern und Fürsprecherinnen der Privatsphäre auf heftigen Gegenwind.

    Nun hat Apple alle Verweise auf diese neue Richtlinie für iOS 15 von seiner Website entfernt. Unklar bleibt, ob dies bedeutet, dass die Pläne zur Durchsuchung der privaten Bilder der Nutzerinnen und Nutzer damit ganz auf Eis gelegt wurden, oder ob das Unternehmen einen neuen Weg einschlagen wird, gegen Kindsmissbrauch und Kinderpornografie vorzugehen. Ein Apple-Sprecher lässt mitteilen, dass man in den kommenden Monaten Rückmeldungen sammeln und Verbesserungen vornehmen wolle, wie heise.de berichtet.

    Möglichkeiten zum Missbrauch

    Kritisiert worden war Apples Plan hauptsächlich, weil dieser die Privatsphäre der Nutzerinnen und Nutzer verletze. Tatsächlich hätte Apple aber nach wie vor keinen direkten Einblick in die Bildergalerien seiner Userinnen und User gehabt. Viel eher hätte jedes Bild neu einen eigenen Hash – also eine lange Abfolge von Zahlen – erhalten. Anschließend hätte dieser Hash und nicht das Bild selbst mit einer Datenbank von bekannten, illegalen Bildern verglichen werden sollen. Nur wenn zwei solche Hashs übereinstimmen und dies mehrfach vorkommt, hätten die betroffenen Bilder entschlüsselt, von einer echten Person begutachtet und den Behörden übergeben werden können.

    Dieses System sei datenschutzfreundlich, hatte Apple argumentiert. Kritiker und Kritikerinnen mahnten allerdings vor den Möglichkeiten für Missbrauch, die ein solches System biete. Hauptkritikpunkt ist die Tatsache, dass eine solche Technologie gefährlich werden könnte, wenn sie in die falschen Hände – beispielsweise eines autoritären Regimes – gerät. Edward Snowden nannte die neue Technologie in einem Tweet beispielsweise ein "Risiko für die nationale Sicherheit".

    iMessage-Bilder weiterhin durchsucht

    Auf der Apple-Website sind aber nach wie vor Informationen zur neuen Warnfunktion für Nacktfotos in iMessage zu finden. Dabei handelt es sich um eine neue opt-in-Funktion, die automatisch Bilder scannt, die von Minderjährigen über iMessage verschickt werden. Falls der Algorithmus Nacktbilder erkennt, die verschickt oder empfangen werden, können diese automatisch verpixelt werden. Die Erkennung der Nacktbilder läuft direkt auf dem Handy der Betroffenen ab, weshalb weder Apple noch andere Personen, wie beispielsweise die Eltern oder Erziehungsberechtigten, Einblick in die verschickten Bilder erhalten können.