Nachdem seine Stimme und sein Aussehen ohne Zustimmung in Videos des KI-Generators Sora 2 verwendet wurden, hat der "Breaking Bad"-Star Bryan Cranston gemeinsam mit der Schauspielergewerkschaft SAG-AFTRA OpenAI zu verschärften Schutzmaßnahmen gezwungen. Dieser Vorfall unterstreicht die dringende Notwendigkeit, die digitale Identität von Künstlern zu schützen und die Kontrolle über ihre Repräsentation zu wahren.
Wichtige Erkenntnisse
- OpenAI hat seine Schutzmaßnahmen für Sora 2 nach einem Vorfall mit Bryan Cranston verschärft.
- Die Opt-in-Politik für die Nutzung von Stimme und Aussehen wird beibehalten und gestärkt.
- Eine breite Koalition von Schauspielagenturen und Gewerkschaften unterstützt den "NO FAKES Act".
- Kritik an Sora 2 wegen der Erzeugung von Falschinformationen und der Nachahmung von Prominenten und urheberrechtlich geschütztem Material.
Der Vorfall und die Reaktion
Bryan Cranston äußerte tiefe Besorgnis, nachdem seine Stimme und sein Erscheinungsbild ohne seine Erlaubnis in KI-generierten Videos aufgetaucht waren. Trotz OpenAIs angeblicher Opt-in-Politik für die Nutzung von Prominenten-Merkmalen, stellte sich heraus, dass dies nicht immer eingehalten wurde. Cranston meldete den Vorfall seiner Gewerkschaft, der SAG-AFTRA, die ihn als "Etappensieg" bezeichnete. OpenAI sprach von einem "unbeabsichtigten Fehler" und hat laut SAG-AFTRA die Schutzmaßnahmen ("Guardrails") für Sora 2 überarbeitet und verschärft. Die Opt-in-Politik soll ein dauerhaftes Prinzip bleiben, um sicherzustellen, dass alle Betroffenen die volle Kontrolle über ihre digitale Repräsentation behalten. Beschwerden sollen zukünftig zügig bearbeitet werden.
Gemeinsame Erklärung und rechtliche Bestrebungen
Die Einigung zwischen OpenAI, SAG-AFTRA und Bryan Cranston ist Teil einer breiteren Erklärung, die auch von wichtigen Talentagenturen wie der United Talent Agency, der Creative Artists Agency und der Association of Talent Agents (ATA) unterzeichnet wurde. Alle Unterzeichner unterstützen den noch nicht verabschiedeten US-Bundesgesetz "NO FAKES Act". Dieses Gesetz zielt darauf ab, die unautorisierte digitale Reproduktion von Stimmen und Aussehen zu verbieten und somit die Rechte von Künstlern und Einzelpersonen zu stärken.
Kritik an Sora 2 und Desinformationspotenzial
Die Maßnahmen von OpenAI sind auch eine Reaktion auf den öffentlichen Druck seit dem Start von Sora 2 im Oktober. Der KI-Videogenerator geriet wiederholt in die Kritik, da er in der Lage war, prominente Persönlichkeiten oder ganze "South Park"-Episoden ohne Erlaubnis zu imitieren. Dies weckt Erinnerungen an die frühere Zurückhaltung von OpenAI bei der Veröffentlichung von GPT-2 aus Sorge vor Fake News. Eine Untersuchung von NewsGuard hat zudem gezeigt, wie Sora 2 täuschend echte Falschinformationen in Videoform erzeugen kann, was Bedenken hinsichtlich des Missbrauchspotenzials für Desinformationskampagnen aufwirft.