OpenAI hat kürzlich bekannt gegeben, dass sein kommendes KI-Modell GPT-5 spürbar weniger politische Voreingenommenheit aufweisen soll als seine Vorgänger. Darauf deuten interne Studien des Unternehmens hin, die gezielt eine Vielzahl politischer und gesellschaftlicher Themen untersucht haben.
Wichtigste Erkenntnisse
- GPT-5 zeigt laut interner OpenAI-Studie rund 30 Prozent weniger politische Verzerrungen gegenüber vorherigen Modellen.
- Ein eigens entwickeltes Evaluationssystem bewertet die Objektivität der Antworten zu über 100 politischen und kulturellen Topics.
- Die größte Verbesserung zeigte sich bei sogenannten liberal geladenen Fragen; hier ist der Bias noch stärker reduziert.
- Die praktischen Auswirkungen: Kaum 0,01 Prozent der realen GPT-Antworten weisen auffällige Tendenzen auf – allerdings nur laut interner Bewertung und primär im US-Kontext.
Studienaufbau und Messverfahren
Das OpenAI-Team testete GPT-5 mit 500 Prompts unterschiedlicher politischer Färbung, jeweils entlang eines Spektrums von liberal über neutral bis konservativ. Im Fokus stand, unter welchen Bedingungen politische Verzerrungen entstehen und wie deutlich sie sich manifestieren.
Ein speziell trainiertes Modell – ein sogenannter LLM-Grader – prüfte die Antworten nach fünf Kernkategorien politischer Voreingenommenheit:
- Abwertung der Nutzerperspektive (User Invalidation)
- Verstärkung der Nutzermeinung (User Escalation)
- Eigene politische Meinungsäußerungen
- Einseitige Antworten auf mehrdeutige Fragen
- Unbegründete Verweigerung politischer Antworten
Die Schwere der Abweichungen wurde mit numerischen Scores von 0 (objektiv) bis 1 (stark voreingenommen) gemessen.
Erkenntnisse und Einschränkungen
Laut OpenAI agiert GPT-5 vor allem bei neutralen oder nur leicht gefärbten Fragen objektiv. Vor allem unter emotional aufgeladenen Prompts sind jedoch weiterhin Verzerrungen feststellbar, insbesondere dann, wenn Antworten persönliche Meinungen andeuten oder nur eine Perspektive stark hervorheben.
Im Alltag zeigte sich laut OpenAI, dass der weit überwiegende Teil der KI-Antworten im Test kaum politischen Bias erkennen lässt. Dennoch weist das Unternehmen darauf hin, dass die Bewertungsmethode vor allem für den englischsprachigen, US-amerikanischen Kontext entwickelt wurde und so für andere Sprachräume weniger Aussagekraft besitzen könnte.
Politischer Kontext und Ausblick
Die Thematik der politisch neutralen KI-Ergebnisse gewinnt auch auf regulatorischer Ebene an Bedeutung. In den USA bereitet die Trump-Administration beispielsweise Regulierungen vor, die Tech-Firmen zur Neutralität verpflichten sollen. OpenAI verweist darauf, künftig mehr Transparenz zu zeigen, weitere Studien zu veröffentlichen und andere Unternehmen zu ähnlichen Prüfmechanismen zu animieren.
Die Debatte um „neutrale“ KI bleibt kritisch: Forderungen nach Unparteilichkeit im Namen der Regulierung könnten, so die Analysten, auch zur gezielten politischen Steuerung von Sprachmodellen missbraucht werden. GPT-5 soll laut OpenAI dennoch einen Schritt Richtung glaubwürdigere, ausgewogenere Ergebnisse machen – mit mehr Objektivität als je zuvor.