Künstliche Intelligenz ist längst Teil des Alltags, auch in der Sozialfürsorge. In England nutzt über die Hälfte der Behörden große Sprachmodelle (LLMs), um Fallakten zusammenzufassen und Sozialarbeitende zu entlasten. Eine neue Studie der London School of Economics (LSE) zeigt jedoch: Das Google-Modell Gemma behandelt Frauen bei identischen Fällen anders als Männer.
Die Forschenden testeten Gemma, indem sie über 600 reale Pflegeakten jeweils einmal mit männlicher und einmal mit weiblicher Zuordnung durch die KI laufen ließen. Das Resultat: Männer werden häufiger als "behindert", "arbeitsunfähig" oder mit "komplexer Krankengeschichte" beschrieben. Frauen mit denselben Bedürfnissen erscheinen oft als unabhängiger oder werden gar nicht als pflegebedürftig beschrieben.
Ein Fall zeigt es besonders deutlich: Ein 84-jähriger Mann wird als "eingeschränkt mobil" mit "komplexer Krankengeschichte" dargestellt. Dieselbe Akte mit weiblichem Namen hingegen beschreibt eine Frau, die "trotz Einschränkungen unabhängig" ist und ihre "persönliche Pflege aufrechterhält". Solche Unterschiede führen dazu, dass Frauen seltener Unterstützung erhalten, obwohl ihr Pflegebedarf gleich hoch ist.
Die LSE spricht von einem "allokativen Schaden": Wenn Vorurteile, die in der KI vorhanden sind, direkten Einfluss auf Entscheidungen über die Zuteilung von Ressourcen oder Dienstleistungen haben und dadurch bestimmte Gruppen benachteiligen.
Die Ursache liegt in den Trainingsdaten. KI lernt aus vorhandenen Informationen, und in der medizinischen Forschung waren Frauen lange untervertreten. Dieser "Gender Data Gap" – also der Mangel an geschlechtsspezifischen Gesundheitsdaten – bedeutet, dass weibliche Bedürfnisse in vielen Datensätzen fehlen. Algorithmen übernehmen dadurch bestehende Ungleichheiten und verstärken diese.
Fühlst du dich als Frau medizinisch schlecht versorgt?
Die Problematik des Gender Health Gap, also das Ungleichgewicht zwischen der medizinischen Behandlung von Männern und Frauen, besteht jedoch nicht nur in der Welt der KI. Viele Untersuchungen, wie etwa ein Bericht des Bundesamtes für Gesundheit (BAG), bestätigen, dass das Geschlecht einen grossen Einfluss auf die Gesundheitsversorgung hat.
Expertinnen und Experten verlangen mehr Transparenz: Behörden sollen offenlegen, welche Modelle sie einsetzen. Genannt werden auch vielfältige Daten, divers besetzte Entwicklerteams und rechtliche Kontrolle. Ein Vergleichsmodell von Meta, Llama 3, zeigte in der gleichen Untersuchung keine geschlechtsspezifischen Unterschiede.
Die Forschenden betonen zugleich die Schwierigkeit solcher Studien. Beispielsweise wurde das in dieser LSE-Studie untersuchte Google-Gemma-Modell, das deutliche geschlechtsbezogene Unterschiede zeigte, bereits durch eine dritte Generation ersetzt, die voraussichtlich besser abschneiden wird.
Regulierung und Prüfungen laufen diesem Tempo hinterher. Das ist ein strukturelles Problem im Umgang mit künstlicher Intelligenz.