Führende KI-Tools verbreiten laut einer aktuellen Studie von Newsguard doppelt so häufig Falschinformationen wie noch vor einem Jahr. Insbesondere russische Desinformationsnetzwerke nutzen die erhöhte Antwortbereitschaft der Chatbots aus, die nun in über einem Drittel der Fälle (35 Prozent) falsche Behauptungen zu aktuellen Nachrichtenthemen verbreiten.
Wichtige Erkenntnisse
- KI-Tools verbreiten 35 Prozent Falschinformationen, eine Verdopplung gegenüber dem Vorjahr.
- Russische Desinformationsnetzwerke nutzen die Schwächen der KI gezielt aus.
- Die Einführung von Echtzeit-Websuchen hat zu neuen Schwachstellen geführt.
- ChatGPT, Meta, Perplexity und Inflection zeigen deutliche Verschlechterungen.
Verschlechterung bei KI-Antworten
Eine Studie von Newsguard hat ergeben, dass die zehn wichtigsten generativen KI-Tools bei aktuellen Nachrichtenthemen in mehr als einem Drittel der Fälle (35 Prozent) falsche Behauptungen verbreiten. Dies stellt eine Verdopplung der Falschinformationsrate von 18 auf 35 Prozent dar, während die Rate der Verweigerungen von 31 Prozent auf null gesunken ist. Die Ursache liegt in einem strukturellen Kompromiss: Mit der Einführung von Echtzeit-Websuchen verzichteten die Entwickler darauf, Fragen zu verweigern. Dies führt dazu, dass die Modelle nun aus einem „verschmutzten Online-Informationsökosystem“ schöpfen, das gezielt mit Desinformation gefüttert wird.
Unterschiede zwischen den KI-Modellen
Newsguard veröffentlichte erstmals individuelle Bewertungen für jedes Modell. Die schlechtesten Ergebnisse erzielten Inflection mit 56,67 Prozent und Perplexity mit 46,67 Prozent Falschinformationsrate. ChatGPT und Meta verbreiteten Falschbehauptungen in 40 Prozent der Fälle, Copilot und Mistral in 36,67 Prozent. Die niedrigsten Fehlerquoten wiesen Claude mit 10 Prozent und Gemini mit 16,67 Prozent auf. Besonders dramatisch war der Absturz von Perplexity, das im Vorjahr noch eine perfekte Debunk-Rate von 100 Prozent erzielte.
Gezielte Manipulation durch russische Netzwerke
Newsguard dokumentierte, wie russische Desinformationsnetzwerke die KI-Schwächen systematisch ausnutzen. Eine getestete falsche Behauptung aus der russischen Einflussoperation Storm-1516 wurde von sechs der zehn KI-Modelle als Tatsache wiederholt. Diese Desinformation stammte aus dem Pravda-Netzwerk, das gezielt KI-Systeme mit Falschinformationen füttern soll. Microsofts Copilot zeigte dabei eine beunruhigende Anpassungsfähigkeit, indem es nach der Einstellung der direkten Zitation von Pravda-Websites auf Social-Media-Posts des Netzwerks als Quellen zurückgriff.
Echtzeit-Suche als Problemverstärker
Die Einführung von Websuchen, die eigentlich veraltete Informationen lösen sollten, hat neue Schwachstellen geschaffen. Die Chatbots ziehen nun Informationen aus unzuverlässigen Quellen und verwechseln teilweise jahrhundertealte Publikationen mit russischen Propaganda-Fronten. Newsguard sieht darin ein grundsätzliches Problem, da der aktuelle Ansatz ein falsches Sicherheitsgefühl schaffe und die Unterscheidung zwischen Fakten und Falschinformationen bedrohe. OpenAI räumte kürzlich ein, dass Sprachmodelle strukturell bedingt immer Halluzinationen erzeugen werden, und arbeitet daran, dass Modelle ihre Unsicherheit zugeben, anstatt selbstbewusst falsche Antworten zu geben.