Sora KI generiert Bilder von Gesichtern und Städten.

OpenAIs Sora: Die Deepfake-Dystopie ist da und leicht zu umgehen

OpenAIs neuer Videogenerator Sora 2 rückt die lange befürchtete Realität von Deepfakes in greifbare Nähe. Eine aktuelle Untersuchung von NewsGuard zeigt, wie einfach die Technologie genutzt werden kann, um täuschend echte Falschinformationen zu erstellen, die sich viral verbreiten und schwer von der Realität zu unterscheiden sind.

Die Macht der Fälschung

Vor etwa acht Jahren warnte Googles KI-Forscher Ian Goodfellow, dass die Entwicklung generativer KI, insbesondere Deepfakes, das Ende einer Ära einleiten würde, in der Videos als verlässlicher Beweis für Ereignisse gelten. Mit Modellen wie OpenAIs Sora 2, die auf fortschrittlichen Transformer-Architekturen basieren, hat sich diese Befürchtung bewahrheitet. Die Fähigkeit, visuelle Inhalte zu fälschen, hat eine neue, besorgniserregende Qualität erreicht.

Falschinformationen auf Abruf

  • NewsGuard testete Sora 2 mit 20 nachweislich falschen Behauptungen aus dem Zeitraum September/Oktober 2025.
  • In 16 Fällen generierte Sora 2 realistische Videos, oft im Stil von Nachrichtensendungen.
  • Elf dieser Videos entstanden bereits beim ersten Versuch.
  • Die getesteten Falschmeldungen reichten von gefälschten Wahlergebnissen über erfundene Polizeieinsätze bis hin zu manipulierten Unternehmensentscheidungen.
  • Fünf der getesteten Behauptungen stammten aus russischen Desinformationskampagnen; Sora erzeugte für alle täuschend echte Videos in unter fünf Minuten.

Umgehbare Schutzmechanismen

OpenAI gibt an, dass Sora keine Gewalt, keine Darstellungen öffentlicher Personen und keine irreführenden Videos erzeuge. Zudem seien alle Clips mit einem Wasserzeichen und C2PA-Metadaten versehen, um Missbrauch zu verhindern. NewsGuard konnte jedoch zeigen, dass diese Schutzmaßnahmen leicht umgangen werden können.

Das sichtbare Wasserzeichen ließ sich mit kostenlosen Online-Tools innerhalb von Minuten entfernen, wobei die resultierenden Videos für ungeübte Betrachter authentisch wirkten. Auch die Filter gegen öffentliche Personen sind nicht konsistent. Während Namen wie „Selenskyj“ blockiert wurden, konnte durch Umschreibungen wie „ukrainischer Kriegschef“ ein Video mit einer stark ähnelnden Figur generiert werden.

Virale Verbreitung und Verantwortung

Einige der von Sora erzeugten Videos verbreiteten sich trotz Wasserzeichen viral. KI-generierte Szenen, die angeblich Antifa-Demonstranten zeigten, die von der Polizei angegriffen wurden, wurden millionenfach geteilt, wobei viele Nutzer glaubten, authentische Aufnahmen zu sehen. Die niedrige Zugangsschwelle macht Sora 2 attraktiv für autoritäre Regime, Propagandanetzwerke und Verschwörungsideologen.

Obwohl auch andere Anbieter an ähnlichen Modellen arbeiten, trägt OpenAI aufgrund seiner Reichweite und der kostenlosen Verfügbarkeit der Sora-2-App, die bereits über eine Million Mal heruntergeladen wurde, eine besondere Verantwortung. Ein Fall, in dem Sora generierte Videos mit rassistischen Beleidigungen blockiert, aber von OpenAI mit Verweis auf die Meinungsfreiheit relativiert wurde, wirft Fragen über die Interpretation dieser Verantwortung auf.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like