Führende KI-Tools verbreiten laut einer aktuellen Studie von Newsguard doppelt so häufig Falschinformationen wie noch vor einem Jahr. Insbesondere russische Desinformationsnetzwerke nutzen die erhöhte Antwortbereitschaft der Chatbots aus, die nun in über einem Drittel der Fälle (35 Prozent) falsche Behauptungen zu aktuellen Nachrichtenthemen generieren.
Wichtige Erkenntnisse
- KI-Systeme verschlechtern sich bei der Verbreitung von Falschinformationen.
- Die Verweigerungsrate bei Fragen sank von 31 auf 0 Prozent.
- Russische Desinformationsnetzwerke nutzen die Schwächen gezielt aus.
- Perplexity und Inflection zeigen die dramatischsten Verschlechterungen.
Verschlechterung trotz Sicherheitsversprechen
Trotz zahlreicher Sicherheitsversprechen und technischer Updates haben sich die führenden KI-Systeme bei der Verbreitung von Falschinformationen laut einer Newsguard-Studie verschlechtert. Die zehn wichtigsten generativen KI-Tools verbreiten nun in mehr als einem Drittel der Fälle (35 Prozent) falsche Behauptungen zu aktuellen Nachrichtenthemen. Dies stellt eine Verdopplung der Falschinformationsrate von 18 auf 35 Prozent dar, während sich die Debunk-Rate verbesserte und Verweigerungen verschwanden.
Ursachen für die Zunahme von Fake News
Die Ursache liegt in einem strukturellen Kompromiss: Mit der Einführung von Echtzeit-Web-Suchen verzichteten die Chatbots darauf, Fragen zu verweigern. Ihre Verweigerungsrate fiel von 31 Prozent im August 2024 auf null Prozent im August 2025. Gleichzeitig ziehen die Modelle nun aus einem "verschmutzten Online-Informationsökosystem", das gezielt von böswilligen Akteuren mit Desinformation gefüttert wird.
Unterschiede zwischen den KI-Modellen
Newsguard veröffentlichte erstmals individuelle Bewertungen für jedes Modell. Die schlechtesten Ergebnisse erzielten Inflection mit 56,67 Prozent und Perplexity mit 46,67 Prozent Falschinformationsrate. ChatGPT und Meta verbreiteten Falschbehauptungen in 40 Prozent der Fälle, Copilot und Mistral in 36,67 Prozent. Die niedrigsten Fehlerquoten hatten Claude mit 10 Prozent und Gemini mit 16,67 Prozent. Besonders dramatisch war Perplexitys Absturz: Das System erzielte im August 2024 eine perfekte Debunk-Rate von 100 Prozent, wiederholte aber ein Jahr später Falschinformationen in fast der Hälfte aller Fälle.
Gezielte Manipulation durch russische Propaganda-Netzwerke
Newsguard dokumentierte, wie russische Desinformationsnetzwerke die KI-Schwächen systematisch ausnutzen. Sechs der zehn getesteten KI-Modelle wiederholten eine falsche Behauptung aus der russischen Einflussoperation Storm-1516 als Tatsache. Diese Falschinformation stammte aus dem Pravda-Netzwerk, das gezielt KI-Systeme mit Desinformation füttern soll. Microsofts Copilot zeigte dabei eine beunruhigende Anpassungsfähigkeit, indem es nach der Einstellung der direkten Zitation von Pravda-Websites begann, Social-Media-Posts des Netzwerks als Quellen zu verwenden.
Echtzeit-Suche verschärft das Problem
Die Einführung von Websuchen, die eigentlich das Problem veralteter Informationen lösen sollte, schuf neue Schwachstellen. Die Chatbots begannen, Informationen aus unzuverlässigen Quellen zu ziehen und "jahrhundertealte Nachrichtenpublikationen mit russischen Propaganda-Fronten mit ähnlichen Namen zu verwechseln". Dies bedrohe die Unterscheidung zwischen Fakten und Falschinformationen.