Die Europäische Union strebt mit dem AI Act einen globalen Goldstandard für künstliche Intelligenz an, der Grundrechte schützen soll. Dieser Ansatz steht im Kontrast zu Plänen anderer Regionen, die auf den Abbau von Auflagen setzen. Ein neu veröffentlichter „Code of Practice for General-Purpose AI Models“ soll Anbietern helfen, die komplexen Anforderungen des AI Acts zu erfüllen, birgt jedoch die Gefahr übermäßiger Bürokratie und rechtlicher Unsicherheit.
Kernpunkte des KI-Dilemmas
- Der AI Act zielt auf einen globalen Standard für KI, der Grundrechte schützt.
- Der „Code of Practice“ soll die Umsetzung erleichtern, könnte aber Innovationen bremsen.
- Überregulierung und bürokratische Hürden könnten europäische KI-Unternehmen benachteiligen.
- Urheberrechtsfragen und technische Umsetzbarkeit stellen erhebliche Herausforderungen dar.
Überregulierung und Dokumentationspflichten
Der „Code of Practice“ wird von Kritikern als Beispiel für schlecht umgesetzte Überregulierung gesehen. Er droht, durch exzessive Bürokratie und unverhältnismäßige Dokumentationsanforderungen Innovationen zu behindern. Das Herzstück ist die „Model Documentation Form“, eine detaillierte Vorlage, die Anbieter ausfüllen müssen. Viele der aufwändigsten Datenpunkte sind ausschließlich für EU-Behörden bestimmt, was den Aufwand für Entwickler erhöht.
Urheberrecht und technische Hürden
Das Urheberrechtskapitel des Kodex löst den Konflikt zwischen Datenmengen für KI-Training und geistigem Eigentum einseitig zugunsten der Rechteinhaber. Die Regelung, dass KI-Modelle urheberrechtlich geschützte Inhalte nicht „in verletzender Weise reproduzieren“ dürfen, ist technisch extrem anspruchsvoll und birgt ein kaum kalkulierbares Haftungsrisiko für Entwickler. Diese Verpflichtung ist im AI Act selbst nicht explizit enthalten.
Sicherheitsanforderungen und externe Evaluatoren
Für leistungsstarke KI-Modelle sieht der Kodex ein vierstufiges Risikomanagement vor. Dies beinhaltet die Erstellung eines umfassenden „Safety and Security Frameworks“, das den gesamten Lebenszyklus eines KI-Systems abdeckt und erhebliche Ressourcen bindet. Zusätzlich müssen Anbieter unabhängige externe Gutachter hinzuziehen, was Kosten und Zeitaufwand erhöht und die Frage nach der Verfügbarkeit qualifizierter Experten aufwirft. Diese Pflicht zur Einschaltung externer Gutachter findet sich nicht im AI Act selbst.
Fazit: Balanceakt zwischen Sicherheit und Innovation
Der gut gemeinte Versuch, vertrauenswürdige und sichere KI zu schaffen, hat zu einem bürokratischen Overkill geführt. Europa steht vor der Herausforderung, seinen Anspruch auf „Vertrauenswürdige KI“ mit der Realität des globalen Technologiewettbewerbs in Einklang zu bringen. Ein Regulierungsüberschuss könnte dazu führen, dass wichtige KI-Innovationen Europa meiden.