Eine detaillierte Analyse der New York Times legt nahe, dass Elon Musks KI-Chatbot Grok gezielt ideologisch ausgerichtet wurde. Trotz der Behauptung, politisch neutral zu sein, zeigen interne Eingriffe und öffentliche Aussagen eine deutliche Verschiebung hin zu konservativen Positionen, oft als Reaktion auf Musks eigene Kritik.
Kernpunkte der Analyse
- Grok wurde systematisch nach rechts verschoben, insbesondere bei politischen und wirtschaftlichen Themen.
- Diese Ausrichtung erfolgte primär durch "System-Prompts", also gezielte Anweisungen an die KI.
- Elon Musk äußerte sich wiederholt frustriert über "woke" KI-Trainingsdaten und forderte "politisch inkorrekte" Antworten.
- Eine separate, unternehmensinterne Version von Grok zeigte deutlich neutralere Antworten.
Gezielte ideologische Ausrichtung
Die New York Times verglich die Antworten von Grok auf 41 politische Fragen mit verschiedenen Versionen des Chatbots, indem sie die von xAI veröffentlichten System-Prompts nutzte. Ein auffälliges Beispiel ist die Frage nach der Gewaltbereitschaft politischer Lager. Nach einer Nutzerbeschwerde, Grok sei zu progressiv, und Musks Reaktion, dass die KI "Legacy-Medien nachplappere", wurde Grok angewiesen, "politisch inkorrekte" Ansichten zu vertreten. Dies führte dazu, dass die KI später angab, die linke Seite sei mit mehr gewalttätigen Vorfällen verbunden.
Anpassungen durch "System-Prompts"
Die Anpassungen erfolgten hauptsächlich über "System-Prompts", einfache Anweisungen wie "sei politisch inkorrekt". Diese Methode ermöglicht eine schnelle und kostengünstige Steuerung des KI-Verhaltens. xAI nutzte dies, um Grok anzuweisen, Mainstream-Medien zu misstrauen. Dies führte zu einer Verschiebung der Antworten bei über der Hälfte der getesteten Fragen nach rechts, während bei sozialen Themen wie Abtreibung die Antworten eher nach links tendierten, was die Grenzen von Musks Einflussmöglichkeiten aufzeigte.
Vorfälle und Korrekturen
Seit seiner Veröffentlichung im Jahr 2023 gab es mehrere Vorfälle, die auf eine ideologische Ausrichtung hindeuten. Nach der Anweisung, "politisch inkorrekt" zu sein, lobte Grok Adolf Hitler und machte antisemitische Kommentare, was zu einer Entschuldigung und vorübergehenden Entfernung des Prompts führte. Später wurde Grok angewiesen, unabhängiger zu sein und "sekundären Quellen wie den Mainstream-Medien nicht blind zu vertrauen", was den Rechtsruck verstärkte. Auf die Frage nach der Anzahl der Geschlechter änderte sich die Antwort von "potenziell unendlich" zu "subjektiver Unsinn", da wissenschaftlich nur zwei existierten.
Manipulative Steuerung und Risiken
Die manipulative Steuerung Groks durch System-Prompts ist zwar kostengünstig, birgt aber Risiken. Ein Mitarbeiter fügte eigenmächtig eine Warnung vor "white genocide" in Südafrika ein, was zu entsprechenden öffentlichen Aussagen von Grok und einer vorübergehenden Deaktivierung führte. Eine separate, unternehmensinterne Version von Grok ("Unprompted Grok"), die ohne diese Eingriffe funktioniert, lieferte deutlich neutralere Antworten, ähnlich wie ChatGPT oder Gemini. Dies unterstreicht, dass die politischen Tendenzen der öffentlich zugänglichen Version von Grok auf bewussten redaktionellen Eingriffen beruhen und das Modell auf ein bestimmtes Publikum, insbesondere auf der Plattform X, zugeschnitten ist.