Aufregung in Kalifornien

Neues KI-Gesetz greift erst ab 50 Toten

Kalifornien zwingt erstmals Konzerne wie OpenAI oder Meta, ihre Sicherheitskonzepte offenzulegen. Eine 50-Tote-Schwelle sorgt aber für Aufregung.
02.10.2025, 11:23
Loading...
Angemeldet als Hier findest du deine letzten Kommentare
Alle Kommentare
Meine Kommentare
Sortieren nach:

Kommentare neu laden
Nach oben

Ende September hat der kalifornische Gouverneur Gavin Newsom das Gesetz SB 53 unterzeichnet. Es gilt ab 2026 und betrifft nur die größten Entwickler mit einer halben Milliarde Dollar Umsatz und Modellen mit enormer Rechenleistung, sogenannte Frontier-Modelle. Betroffen sind vor allem OpenAI, Google Deepmind, Meta und Anthropic.

Die Firmen müssen künftig ihre Sicherheitsrahmen veröffentlichen, Vorfälle wie Kontrollverlust oder Täuschungsversuche durch KI-Systeme melden und Whistleblower schützen. "Dieses Gesetz schafft Leitplanken für Vertrauen, Fairness und Verantwortung bei neuer Technologie", sagte Senator Scott Wiener in einer Pressemitteilung.

Kritik an Todesgrenze und Strafen

Kritiker bemängeln, dass SB 53 nur bei "katastrophalen Risiken" greift, also bei Vorfällen mit über 50 Toten oder Schäden von mehr als einer Milliarde Dollar. Risiken wie das virale Verbreiten von Fehlinformationen oder diskriminierende Algorithmen sind nicht erfasst.

Auch die Strafen gelten als schwach. Verstöße kosten höchstens eine Million Dollar. Branchennahe Verbände wie CTA und Chamber of Progress kritisierten unter anderem diese geringe Sanktionshöhe, die bei einem Multi-Milliarden-Konzern gar nicht ins Gewicht fällt.

Das Gesetz adressiert zudem nur Frontier-Modelle über 10^26 FLOPs und große Entwickler über 500 Millionen US-Dollar Umsatz. Ein feinjustiertes Open-Source-Modell, das diese Schwellen nicht überschreitet, fällt nicht unter SB 53. Wer also ein frei verfügbares Modell wie z. B. Metas Llama verändert und weiterentwickelt, fällt nicht unter das Gesetz.

Was sind FLOPs?

FLOPs steht für Floating Point Operations per Second. Es ist ein Maß dafür, wie viele mathematische Rechenoperationen ein Computer in einer Sekunde ausführen kann.

Für KI-Modelle bedeutet das: Je mehr FLOPs beim Training benötigt werden, desto größer, teurer und leistungsfähiger ist das Modell.

Die Grenze im Gesetz liegt bei 10^26 FLOPs: Eine unfassbare hohe Rechenmenge. Nur die allergrößten KI-Modelle, wie GPT-5, erreichen diese Werte.

Wie viele FLOPs genau ein Modell hat, ist nicht öffentlich. Alle Angaben zu FLOP-Zahlen aktueller Modelle sind rein spekulativ.

KI-Branche warnt vor Innovationsbremse

Die Debatte um SB 53 verlief im Vorfeld hitzig. Befürworter wie Gouverneur Newsom und Forscherinnen wie die Stanford-Professorin Fei-Fei Li sehen darin einen wichtigen Rahmen für mehr Verantwortung. Von den betroffenen KI-Firmen war Anthropic (mit der KI Claude) die einzige, die sich für das Gesetz aussprach.

Gegenwind kam von den Tech-Konzernen und ihren Verbänden. OpenAI und Meta drängten auf Harmonisierung mit nationalen und EU-Standards, um Doppelregulierung zu vermeiden. Die Consumer Technology Association erklärte: "Die USA brauchen einen nationalen Standard, nicht unterschiedliche Vorschriften in jedem Bundesstaat."

Das Gesetz ist bereits abgeschwächt und ein Kompromiss: Strengere Vorgaben wie Kill Switches und Vorab-Audits aus dem gescheiterten Vorgänger SB 1047 wurden gestrichen. Im Vergleich zum EU AI Act bleibt Kalifornien damit deutlich milder. Während die EU ganze Anwendungsbereiche verbietet und Strafen bis zu 7 Prozent des globalen Umsatzes vorsieht, setzt Kalifornien auf öffentliche Offenlegung.

Globale Auswirkungen

SB 53 gilt zwar nur in Kalifornien, kann aber auch Auswirkungen auf den globalen Markt haben. Wer seine Modelle dort anbietet, muss die Regeln einhalten. Für europäische Unternehmen bedeutet das: Neben dem EU AI Act kommen zusätzliche Vorschriften hinzu.

Mit SB 53 hat erstmals ein US-Bundesstaat ein umfassendes KI-Sicherheitsgesetz erlassen. Es zwingt die mächtigsten Labs zu mehr Transparenz und öffentlicher Rechenschaft. Kritik entzündet sich unter anderem an der Todesgrenze von 50 Opfern, an den geringen Strafen und an Lücken bei Open-Source-Modellen. Ob Kalifornien damit tatsächlich mehr Sicherheit schafft, wird sich erst mit der Umsetzung zeigen. Ab 2027 sollen die Regeln jährlich überprüft und angepasst werden.

{title && {title} } 20 Minuten,red, {title && {title} } Akt. 02.10.2025, 12:28, 02.10.2025, 11:23
Jetzt E-Paper lesen