Airbnb will Psychopathen mit Software aussortieren

Airbnb möchte mit Hilfe von Künstlicher Intelligenz Verhaltensauffälligkeiten seiner Nutzer analysieren, um deren Verlässlichkeit zu überprüfen.
Um Betrüger zu entlarven und Gastgeber zu schützen, möchte Airbnb eine Methode verwenden, die darauf basiert, über eine Software Daten der Nutzer zu analysieren. So soll man jene herausfiltern können, die möglicherweise eine Veranlagung besitzen sich fragwürdig oder unzuverlässig zu verhalten.

Damit möchte der Konzern verhindern, dass Apartments verwüstet oder vermüllt hinterlassen werden, Übergriffe entstehen oder Wohnungen inseriert werden, die nicht existieren. Nach dem großen Wachstum in den letzten Jahren, möchte er vermeiden, dass sich solche oder ähnliche Szenarien wiederholen.

Punktesystem errechnet Vertraunswürdigkeit der Nutzer



CommentCreated with Sketch.0 zu den Kommentaren Arrow-RightCreated with Sketch. Ein Algorithmus soll die Vertrauenswürdigkeit der Nutzer ausforschen. Dazu sollen Datenanalysen, die im Vorhinein angestellt werden, behilflich sein, um Risikoprognosen erstellen zu können und die Persönlichkeit der Personen einzustufen.

Mit einem Punktesystem werden Verhaltens- und Persönlichkeitsmerkmale gefiltert, die "Vertrauenswürdigkeits- und Kompatibilitätsscore der Person kalkuliert und errechnet wie kompatibel zwei Personen sind, um eine reibungslose Abwicklung garantieren.

Bösartigkeit und antisoziale Kompetenzen überprüfen

Auch Informationen aus staatlichen Quellen wie Vorstrafenregistern werden über eine Software eingeholt. Bösartigkeit, antisoziale Tendenzen, Neurotizismus, Narzissmus und Psychopathie sowie der Grad der Unzuverlässigkeit einer Person sollen herausgefiltert werden.

Die Verwendung so einer Software ist nichts Neues. Ähnliche Modelle existieren in anderen Branchen schon lange. Finanzunternehmen etwa kalkulieren, wie groß die Wahrscheinlichkeit ist, dass Kreditraten fristgerecht zurückgezahlt werden. Auch in der Werbung und für politische Kampagnen kommt sie zum Einsatz. Man denke an die extreme Form des Modells der Bonitätsüberprüfung in China. Eine globale Datenbank mit psychologischen Profilen ist also schon in der Realität angekommen.

Auf der Website des Konzerns heißt es: "Bei jeder Airbnb-Buchung wird vor der Bestätigung das Risiko bewertet". "Wir nutzen Vorhersagemethoden und maschinelles Lernen, um auf der Stelle Hunderte von Signalen auszuwerten, die uns dabei helfen, verdächtige Aktivitäten zu erkennen und zu unterbinden, noch bevor sie eintreten." Weltweit führe das Unternehmen zudem bei Gastgebern und Gästen einen Abgleich mit Behörden-, Terroristen- und Sanktionslisten durch, in den USA werde darüber hinaus "der Hintergrund überprüft".

ThemaCreated with Sketch.Weiterlesen

Nav-AccountCreated with Sketch. GA TimeCreated with Sketch.| Akt:
Reisen

CommentCreated with Sketch.Kommentieren