Kalifornien macht Ernst mit der Regulierung von KI-Companion-Chatbots. Ein neues Gesetz, das bereits von beiden Parlamentskammern verabschiedet wurde, legt erstmals in den USA spezifische Sicherheitsvorgaben für diese Systeme fest. Gouverneur Gavin Newsom hat die finale Unterschrift noch ausstehen. Sollte das Gesetz in Kraft treten, müssen Anbieter ab 2026 sicherstellen, dass ihre Chatbots keine Gespräche über Suizid, Selbstverletzung oder sexuell explizite Inhalte führen. Zudem sollen Nutzer, insbesondere Minderjährige, klar darüber informiert werden, dass sie mit einer künstlichen Intelligenz interagieren.
Wichtige Eckpunkte der neuen Gesetzgebung
- Anbieter müssen ab 2026 Gespräche über Suizid, Selbstverletzung und sexuell explizite Inhalte unterbinden.
- Nutzer, insbesondere Minderjährige, müssen über die KI-Natur des Gesprächspartners informiert werden.
- Ab Juli 2027 sind jährliche Transparenz- und Berichtspflichten vorgesehen, um psychische Risiken zu bewerten.
- Bei Verstößen können Betroffene Schadensersatz von bis zu 1.000 US-Dollar pro Verstoß fordern.
Ursprüngliche Pläne und Kompromisse
Der ursprüngliche Gesetzesentwurf war weitreichender. Er sah ein Verbot von Belohnungssystemen wie freischaltbaren Inhalten vor, die als suchtfördernd gelten könnten. Auch eine Pflicht zur Protokollierung von KI-initiierten Suizidgesprächen wurde gestrichen. Die nun verabschiedeten Regelungen stellen einen Kompromiss dar, der technische Machbarkeit mit wirksamem Schutz verbinden soll.
Auslöser und Parallelen zur EU
Die Debatte um strengere KI-Regulierungen wurde durch tragische Vorfälle beschleunigt, darunter der Suizid eines Jugendlichen und Berichte über unangemessene Interaktionen von Metas Chatbots mit Kindern. Parallel dazu hat die US-Regulierungsbehörde FTC sieben KI-Anbieter zur Herausgabe von Informationen über ihre Sicherheitspraktiken aufgefordert. Der kalifornische Ansatz ähnelt in seinen Zielen den EU-Regelwerken, die ebenfalls Minderjährigenschutz, Transparenz und Rechenschaftspflichten betonen. Während die EU auf einen breiten, risikobasierten Rahmen setzt, fokussiert sich Kalifornien auf den spezifischen Anwendungsfall von KI-Begleitern.