So will die EU Künstliche Intelligenz regulieren

Künstliche Intelligenz ist schon jetzt in unserem Alltag. Künftig dürften derlei Anwendungen unser Leben noch mehr prägen. Was sich dabei ändern soll.

Europa will bei der Anwendung Künstlicher Intelligenz globale Standards setzen. Dazu schlug die EU-Kommission am Mittwoch Regeln vor, die vor allem das Vertrauen in die Technologie stärken sollen. Je höher die potenziellen Gefahren einer Anwendung, desto höher sind die Anforderungen. Für Regelverstöße sind hohe Strafen vorgesehen.

Es ist weltweit der erste Rechtsrahmen dieser Art für Anwendungen auf Grundlage maschinellen Lernens. In den kommenden Jahren dürften solche Anwendungen im Alltag immer wichtiger werden – zugleich gibt es jedoch ethische Bedenken, die Maschinen könnten unausgewogene oder gefährliche Entscheidungen treffen.

Deshalb betonten EU-Kommissionsvize Margrethe Vestager und EU-Binnenmarktkommissar Thierry Breton am Mittwoch immer wieder ein Wort: Vertrauen. «Bei künstlicher Intelligenz ist Vertrauen ein Muss und kein Beiwerk», sagte Vestager. Man könne das gesellschaftliche und wirtschaftliche Potenzial Künstlicher Intelligenz nur dann schöpfen, wenn die Menschen darauf vertrauen könnten, dass die Risiken minimiert seien. Bei der ersten Digitalisierungswelle sei Europa zwar nicht führend gewesen. Doch habe der Kontinent alles, um die zweite Welle anzuführen.

Was genau ist Künstliche Intelligenz?

Künstliche Intelligenz bezeichnet meist Anwendungen auf Basis maschinellen Lernens, bei denen eine Software große Datenmengen nach Übereinstimmungen durchforstet und daraus Schlussfolgerungen zieht. Sie werden schon jetzt in vielen Bereichen unseres Lebens eingesetzt. Zum Beispiel können solche Programme Aufnahmen von Computer-Tomografen schneller und mit einer höheren Genauigkeit als Menschen auswerten. Selbstfahrende Autos versuchen so, das Verhalten anderer Verkehrsteilnehmer vorherzusagen. Und auch Chatbots oder automatische Playlisten von Streamingdiensten arbeiten mit KI.

Ähnlich wie bei den Datenschutzregeln, die seit 2018 in der EU gelten und weltweit Nachahmer fanden, will die EU-Kommission auch beim Umgang mit Künstlicher Intelligenz globale Standards setzen. Doch müssen die EU-Staaten und das Europaparlament nun erstmal über die Vorschläge verhandeln. Es dürfte also noch einige Jahre dauern, ehe in der EU neue Regeln gelten. Bis dahin dürfte es – wie schon bei der Datenschutzgrundverordnung – viel Lobbyarbeit geben.

Warum braucht es ein solches Gesetz?

Unternehmen in Deutschland haben einer repräsentativen Umfrage des Digitalverbandes Bitkom zufolge immer weniger Vorbehalte gegen den Einsatz von KI. Demnach gaben 62 Prozent der befragten Verantwortlichen an, dass sie darin eher eine Chance sehen – vor einem Jahr waren es noch 55 Prozent. Doch nutzen bislang nur verhältnismäßig wenige Unternehmen, 8 Prozent der Befragten nämlich, Künstliche Intelligenz auch tatsächlich.

"Wer erkannt hat, wie wichtig Künstliche Intelligenz schon heute ist und insbesondere künftig sein wird, sollte jetzt investieren", sagte Bitkom-Präsident Achim Berg. Die neuen Regeln sollten sich auf Hochrisiko-Anwendungen konzentrieren. "Wir brauchen in Deutschland und Europa sichere und vertrauenswürdige KI – wir dürfen aber nicht alle und alles über einen Kamm scheren."

Bundesjustizministerin Christine Lambrecht (SPD) nannte den Vorstoß der EU-Kommission einen "zentralen Wegweiser" im Umgang mit KI. "Der Vorschlag rückt die Grundrechte der Europäerinnen und Europäer in den Mittelpunkt: Der Schutz vor Diskriminierung und vor wahlloser Massenüberwachung sind wichtige rote Linien, die wir für den Einsatz von KI setzen müssen."

Was wird reguliert?

Konkret legte die EU-Kommission vor allem Regeln für sogenannte Hochrisiko-Anwendungen vor. Dazu zählt die Behörde unter anderem kritische Infrastruktur wie den Verkehrssektor, Programme zur Personaleinstellung oder die Bewertung der Kreditwürdigkeit. So soll etwa verhindert werden, dass eine Software bestimmte Bewerbungen bei Einstellungsverfahren ohne objektiven Grund aussortiert. Bei derlei Anwendungen will die EU-Kommission deshalb hohe Anforderungen etwa an die Daten stellen, mit denen die Programme gefüttert werden. Zudem müssen Entscheidungen im Nachhinein nachvollziehbar sein und es muss eine menschliche Aufsicht geben.

Auch die biometrische Identifikation im öffentlichen Raum, etwa an Bahnhöfen, soll nur in engen Grenzen und nach behördlicher Genehmigung erlaubt werden – etwa bei der Suche nach einem vermissten Kind oder einem drohenden Terroranschlag. Technologien wie das Sozialkredit-System aus China, das regelkonformes Verhalten belohnt und Fehlverhalten bestraft, soll gänzlich verboten werden.

Von den allermeisten KI-Anwendungen – beispielsweise Spam-Filter oder Computerspiele – gehen nach Ansicht der EU-Kommission jedoch keine oder nur geringe Risiken aus. Für sie sollen daher deutlich weniger strenge oder gar keine Auflagen gelten. Bei Chatbots müssen die Nutzer beispielsweise darüber informiert werden, dass sie nicht mit einem Menschen kommunizieren.

CommentCreated with Sketch. Jetzt kommentieren Arrow-RightCreated with Sketch.
Nav-Account 20 Minuten Time| Akt:
RoboterTechnologieNetzpolitik

ThemaCreated with Sketch.Weiterlesen