Diese Firma erkennt dich überall – das ist gefährlich

PimEyes ist eine polnische Firma, die ein Tool zur Gesichtserkennung entwickelt hat. Dieses kann jeder benutzen. Damit ist Schluss mit der Anonymität.

Es ist der Traum eines jeden Stalkers: Alles, was man benötigt, ist das Bild seines Opfers und eine Maschine, die anschließend das ganze Internet nach Fotos dieser Person absucht. Eine Firma mit Sitz in Polen macht dies möglich. Sie heißt PimEyes und bietet genau das an: die Analyse von Millionen von Bildern aufgrund eines bereits bestehenden Fotos.

Zwar handelt es sich dabei nicht um eine wirklich neuartige Technologie. Firmen wie Google oder Facebook verfügen schon längst über die technologischen Möglichkeiten, solche Gesichtserkennung effizient durchzuführen. Dies wird größtenteils aber nicht umgesetzt, nicht zuletzt weil dies zu Verstößen gegen das Datenschutzgesetz führen könnte. PimEyes hat hierbei aber keine Hemmungen, wie Netzpolitik.org berichtet.

➤ Zwar kann die Suchmaschine nicht direkt den Namen einer gesuchten Person ausspucken, mit nur einem Schnappschuss können aber alle möglichen Bilder gefunden werden, die von dieser Person im Internet existieren, sei dies von Demos, Nachtclubs, Konzerten oder Urlaub. Häufig lassen sich so auch Websites finden, die Rückschlüsse auf den Beruf, den Namen und den Wohnort der gesuchten Person ziehen lassen.

Dies kann gefährlich werden, wie eine Demonstrantin in den USA am eigenen Leib erfahren musste. Zwar wurde sie nicht mittels Gesichtserkennungs-Technologie identifiziert, dennoch wurde ihr ein Bild, das eine andere Person von ihr während einer Demonstration geschossen hatte, zum Verhängnis. Über mehrere Websites hinweg gelang es dem FBI, die Frau zu identifizieren und wegen ihrer Taten während der Demonstration zu verhaften.

Netzpolitik.org berichtet von einem weiteren Fall, in dem eine solche Technologie problematisch werden könnte. So liefert die Suchmaschine Bilder eines Mannes, der als Banker arbeitet, in seiner Freizeit aber häufig an LGBTQ+-Protesten und Demonstrationen teilnimmt und sich auch sonst häufig in dieser Szene bewegt. "Die Suchmaschine kann Menschen outen", sagt er. "Vor allem in meinem Berufszweig sind viele Menschen noch konservativen Werten verfallen. Ich kenne Menschen, die ein Doppelleben haben, in einer Hetero-Ehe lebe und heimlich in der LGBT-Community Schutz suchen."

➤ PimEyes gibt in einem Post auf ihrer Facebook-Seite an, pro Tag rund ein Terabyte Fotos zu analysieren. In ihrer Datenbank befänden sich biometrische Daten von über 900 Millionen Gesichtern. Die Facebook-Seite ist allerdings seit der Recherche von Netzpolitik.org nicht mehr auffindbar.

Laut der Website von PimEyes ist das Gesichtserkennungs-Tool allerdings nicht als Hilfe für Stalker gedacht, sondern viel eher dafür, seine eigene Privatsphäre zu schützen. "Lade dein Foto hoch und finde heraus, wo dein Gesicht im Internet erscheint", heißt es dort. Diese Beschreibung des Services ist allerdings brandneu und ebenfalls erst nach der Recherche von Netzpolitik.org aufgetaucht. Früher animierte das Unternehmen seine User dazu, vor allem Bilder von Fremden hochzuladen. So wurde beispielsweise vorgeschlagen, nach Bildern von Meghan Markle oder Oprah Winfrey zu suchen.

Natürlich sei es früher möglich gewesen, auch Bilder von Freunden, Bekannten oder gar Fremden hochzuladen, räumt das Unternehmen ein. Heutzutage dürfe ihr Dienst aber nur noch dazu benutzt werden, nach dem eigenen Gesicht zu suchen. Die einzige Überprüfung dessen stellt aber ein Häkchen-Feld dar, bei welchem man bestätigen soll, dass das hochgeladene Bild einen selbst zeigt.

➤ Wie ein Nutzer feststellen musste, durchsucht PimEyes nicht nur gängige Social-Media-Profile, sondern auch Pornoseiten. So fand ein Ehemann, der das Bild seiner Frau hochlud, beispielsweise 190 Nacktbilder der Frau. Bei diesen Fotos handelte es sich um unerlaubt veröffentlichte Aufnahmen.

PimEyes sieht darin kein Problem: "Unser Tool hilft dabei, Revenge Porn zu bekämpfen", heißt es. Oft stellte es sich aber als äußerst schwierig heraus, solche illegal hochgeladenen Bilder löschen zu lassen. "Was nutzt es, die Bilder zu finden, wenn man sie dann nicht vollständig aus dem Internet entfernen kann?", will der Ehemann wissen. Außerdem könnten auf diese Art und Weise Personen entlarvt werden, die als Sexarbeiter tätig sind, dies aber nicht an die große Glocke hängen möchten.

Dass die Technologie von PimEyes ein Problem darstellt, findet auch die Sprecherin der Linken im deutschen Bundestag, Anke Domscheit-Berg. Sie bezeichnet sie gar als "hochgefährlich". "Die Vorstellung, dass jeder Creep in der U-Bahn mich über ein Handyfoto identifizieren und ohne große Hürden meinen Wohn- und Arbeitsort ausfindig machen kann, finde ich extrem beunruhigend", sagt sie. Die ganze Problematik erinnert stark an den Fall von Clearview, einer Gesichtserkennungs-App aus den USA, die im März Schlagzeilen machte. Der große Unterschied besteht allerdings darin, dass Clearview nicht für jedermann zugänglich war.

➤ PimEyes ist darüber hinaus auch in die Software Paliscope des schwedischen Unternehmens Safer Society Group involviert. Diese Software ist dafür gemacht, Ermittler dabei zu unterstützen, Daten aus unterschiedlichen Quellen zu analysieren. Unklar ist, ob Paliscope und somit auch die Software von PimEyes ebenfalls von den Behörden in der EU eingesetzt wird.

Das Problem mit der Gesichtserkennungs-Technologie: Weil in den USA ein dunkelhäutiger Mann aufgrund von Gesichtserkennungs-Technologie fälschlicherweise verhaftet wurde und 30 Stunden in Untersuchungshaft verbringen musste, ist das Thema dieser Problematik wieder von neuem aufgetaucht. Bereits Anfang Juni hatte Amazon angekündigt, ein Jahr lang den Verkauf ihrer Gesichtserkennungs-Software Rekognition einzustellen.

Auch Microsoft hatte angekündigt, seine Technologie nicht mehr an die Polizei weiterzuverkaufen, und IBM hat einen grundsätzlichen Stopp angeordnet, was Gesichtserkennungs-Tools angeht. All dies steht in Zusammenhang mit den Demonstrationen und Aufständen im Namen der "Black Lives Matter"-Bewegung. Denn Studien zeigen, dass Technologien wie jene, die zur falschen Identifizierung des Mannes führte, oft fehlerhaft sind und rassistische Tendenzen zeigen.

CommentCreated with Sketch. Jetzt kommentieren Arrow-RightCreated with Sketch.
Nav-Account 20 Minuten Time| Akt:
SpionageTechnikInternet

ThemaCreated with Sketch.Weiterlesen