KI-Video-App Sora mit Kontroverse

OpenAIs neue Video-App Sora: „AI Slop“-Vorwürfe überschatten den Start

OpenAI hat mit seiner neuen Video-App Sora für Aufsehen gesorgt. Die App verspricht personalisierte Kurzvideo-Feeds, die Nutzern helfen sollen, langfristige Ziele zu erreichen. Doch bereits kurz nach der Veröffentlichung hagelt es Kritik aus der KI-Community. Es wird befürchtet, dass Sora stattdessen eine Flut von minderwertigen, süchtig machenden Inhalten, sogenanntem "AI Slop", hervorbringen könnte. Selbst OpenAI-Chef Sam Altman räumt dieses Risiko ein.

Kritik an "AI Slop"

Die neue App Sora von OpenAI ermöglicht es Nutzern, kurze Videos zu erstellen und zu teilen, wobei sie sich selbst oder Freunde als Hauptfiguren in KI-generierte Clips einfügen können. Das Ziel ist ein personalisierter Feed, der leicht konsumierbar ist. Kritiker bemängeln jedoch, dass die App primär "AI Slop" – also generische, oberflächliche Inhalte ohne nennenswerten kreativen oder informativen Mehrwert – produziere. Diese Inhalte seien oft austauschbar und auf maximale Reaktion optimiert, ähnlich wie bei Plattformen wie TikTok.

Sam Altmans Bedenken und Lösungsansätze

OpenAI-Chef Sam Altman hat die Bedenken bezüglich "AI Slop" bereits im Vorfeld geäußert. Er beschrieb das Risiko eines "degenerierten Falls der KI-Videogenerierung", bei dem Nutzer in einen "RL-optimierten Schrott-Feed" gezogen werden könnten. RL steht hierbei für Reinforcement Learning, eine Optimierung, die Inhalte auf maximales Engagement ausrichtet, oft auf Kosten der Qualität.

Altman betonte jedoch, dass OpenAI bewusst gegensteuern wolle. Sora solle nicht auf kurzfristige Aufmerksamkeit, sondern auf "langfristige Nutzerzufriedenheit" abzielen. Die App soll Nutzern ermöglichen, ihre Feeds gezielt nach Stimmung, Interessen oder persönlichen Zielen anzupassen, um sie bei der Erreichung von Zielen wie Muskelaufbau oder beruflicher Selbstverwirklichung zu unterstützen.

Der Zielkonflikt und die Zukunft von Sora

Dennoch setzt Sora auf Mechanismen, die oft mit suchtähnlichem Nutzerverhalten in Verbindung gebracht werden: starke Personalisierung, emotionale Ansprache und soziale Interaktionsfeatures. Dies offenbart einen Zielkonflikt zwischen dem Anspruch, langfristige Ziele zu fördern, und der Nutzung von Designprinzipien, die auf kurzfristige Belohnung ausgelegt sind.

Altman kündigte an, Sora kritisch zu evaluieren. Sollte sich herausstellen, dass die App die Lebensqualität der Nutzer nicht verbessert, will OpenAI "weitreichende Maßnahmen" ergreifen, bis hin zur vollständigen Einstellung der App. Er relativierte jedoch auch, indem er anmerkte, dass es für Nutzer, die "nur doomscrollen und wütend sein wollen", auch in Ordnung sei, und schob damit einen Teil der Verantwortung auf die Nutzer selbst.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like