Kalifornien setzt ein Zeichen in der KI-Regulierung und hat als erster US-Bundesstaat ein umfassendes Gesetz für Sicherheit und Transparenz in der künstlichen Intelligenz verabschiedet. Das neue Gesetz SB 53 verpflichtet Entwickler großer KI-Modelle zu strikten Sicherheitsstandards—nicht zuletzt auch im Hinblick auf wachsende internationale Konkurrenz und technologische Risiken.
Wichtigste Punkte
- Kalifornien beschließt als erster US-Bundesstaat ein spezielles KI-Sicherheitsgesetz.
- Große KI-Unternehmen müssen fortan Sicherheitsprotokolle offenlegen und Katastrophenrisiken adressieren.
- Die Tech-Branche ist geteilter Meinung; es gibt Sorgen um die Innovationskraft im internationalen Vergleich.
Gesetzliche Vorgaben und Ziele
Das neue Gesetz SB 53 richtet sich an Unternehmen, die große KI-Modelle entwickeln. Sie sind zukünftig dazu verpflichtet, umfangreiche Sicherheitsmaßnahmen zu dokumentieren und einzuhalten. Ziel ist es, Risiken durch KI für kritische Infrastrukturen, wie etwa durch Cyberangriffe oder die Entwicklung von Biowaffen, frühzeitig zu erkennen und zu begrenzen. Für die Kontrolle und Durchsetzung wurde das kalifornische Office of Emergency Services zuständig gemacht.
Viele der heute verlangten Maßnahmen—wie Sicherheitsüberprüfungen oder Transparenz in Form sogenannter "Model Cards"—werden von führenden Anbietern bereits weitgehend umgesetzt. Dennoch wurde Kritik laut: Gerade in Wettbewerbsphasen könnten Unternehmen versucht sein, Sicherheitsvorgaben auszuhebeln oder Transparenz zu vermeiden, wie der jüngste Fall des Start-ups xAI zeigt.
Reaktionen aus der Branche
Das Gesetz SB 53 wurde in der Tech-Community gemischt aufgenommen. Während einige Unternehmen, darunter der KI-Entwickler Anthropic, die neuen Vorgaben als notwendigen Schritt begrüßten, überwiegt vielerorts die Sorge vor staatlicher Einmischung. Es wird argumentiert, dass eine Überregulierung die Innovationsfähigkeit der US-amerikanischen Industrie schwächen und sie gegenüber der Konkurrenz aus China ins Hintertreffen bringen könnte.
Relevante Akteure – etwa Meta, OpenAI oder Risikokapitalgeber wie Andreessen Horowitz – investieren deshalb gezielt in politische Kampagnen, die eine Lockerung oder Blockade staatlicher Eingriffe zum Ziel haben. Frühere Vorschläge wie ein zehnjähriges KI-Moratorium auf Ebene der Bundesstaaten konnten sich jedoch nicht durchsetzen.
Der Blick auf nationale Standards
Neben den Entwicklungen in Kalifornien arbeitet der US-Kongress derzeit an einem einheitlichen, landesweiten Regelwerk für künstliche Intelligenz. Ein entsprechender Standard könnte dazu führen, dass die Bundesgesetze die jeweiligen Vorgaben der Bundesstaaten außer Kraft setzen. Im Raum steht auch der sogenannte SANDBOX Act: Demnach könnten sich Unternehmen für bestimmte Zeiträume von den Regularien befreien lassen – was erneut Kritik auslöst.
Fazit
Mit dem KI-Sicherheitsgesetz SB 53 hat Kalifornien einen wegweisenden Schritt getan. Ob das Gesetz tatsächlich als Vorbild für andere Bundesstaaten oder für eine nationale Lösung dienen wird, bleibt abzuwarten. Sicher ist: Die Debatte um Chancen und Risiken von KI – und den richtigen Weg der Regulierung – ist damit neu entfacht.