Viele Technologien, die wir heute selbstverständlich nutzen, wurden ursprünglich für Menschen mit besonderen Bedürfnissen entwickelt. Zum Beispiel sollten Untertitel Gehörlosen den Zugang zum Film ermöglichen. Heute sind sie ein fester Bestandteil im Leben aller Menschen.
KI setzt diese Tradition fort. Weltweit leben über eine Milliarde Menschen mit einer Behinderung. Für sie wird KI schon heute zum Alltagshelfer. Sie bietet Hilfen, die zunächst für Menschen mit Einschränkungen gedacht sind, aber vielleicht bald das Leben von allen verändern könnten.
Untertitel: Nicht mehr wegzudenken
Zweck: Ursprünglich für Menschen mit Hörschwäche entwickelt, aber heute auch hilfreich beim Sprachenlernen oder in lauter Umgebung.
Die Anfänge: Erste Untertitel gab es schon Ende der 1920er im Kino, fest ins Bild eingebrannt.
Fernsehen: Ab den 1970ern in den USA, in Europa ab den 1980ern über Videotext/Teletext.
Heute: Streamingdienste, YouTube und TV verfügen oft über Untertitel, oft in mehreren Sprachen. Live-Untertitelung wird bereits umgesetzt.
KI bringt Gefühl: Mit "Expressive Captions" werden mithilfe von KI die emotionale Nuance, der Tonfall und die Betonung von Videos in Untertiteln sichtbar gemacht.
"Google Lookout" macht das Smartphone zum sehenden Auge: Die App erkennt Straßenschilder, Geldscheine oder Speisekarten und liest sie laut vor.
Für Selfies gibt es auf Pixel-Handys "Guided Frame". Die Kamera gibt per Audio und Vibration Hinweise und löst automatisch aus, wenn das Gesicht im Bild ist. So können Menschen mit extremer Sehschwäche auch Selfies machen.
Viele Sprachassistenten scheitern an Menschen mit Sprachstörungen. "Project Relate" will das ändern. Die App lernt die individuelle Aussprache (mit etwa 500 kurzen Phrasen) und übersetzt sie in Text oder eine klare synthetische Stimme. So können Betroffene erstmals mit dem Google Assistant sprechen oder per Telefon eine Pizza bestellen. Parallel forscht "Project Euphonia" daran, Spracherkennung inklusiver zu machen.
Auch Microsoft ist aktiv: Mit der Windows-Funktion "Speak For Me" können Nutzerinnen und Nutzer bald eine eigene synthetische Stimme erzeugen.
Die App "Be My Eyes" verbindet sehbehinderte Menschen mit Freiwilligen, die per Video beschreiben, was im Bild ist. Mit "Be My AI" übernimmt zusätzlich eine KI die Rolle des Beschreibers. Diese Funktion basiert auf GPT-4 mit Vision von OpenAI und beschreibt Fotos oder beantwortet Rückfragen.
Seit 2024 arbeitet "Be My Eyes" auch mit Meta zusammen: In den Ray-Ban-Meta-AI-Brillen läuft Meta AI, die Texte oder Objekte per Sprachbefehl erkennt und vorliest. Über die Integration lässt sich zudem direkt ein Freiwilliger anrufen.
2024 eröffnete in Zürich eines von weltweit fünf Accessibility Discovery Center von Google. Besucherinnen und Besucher können dort die neuesten Technologien ausprobieren und gemeinsam mit Experten Ideen für mehr Barrierefreiheit entwickeln.
Ob "Lookout", "Relate", "Seeing AI" oder "Be My AI": Die aktuellen Tools zeigen, dass KI mehr kann als Texte und lustige Videos generieren. Sie gibt Stimmen, macht Unsichtbares sichtbar und schafft Inklusion. So wie Untertitel einst vom Hilfsmittel zum Standard wurden, könnten auch heutige KI-Innovationen bald allen den Alltag erleichtern.