Einem Bericht der New York Times zufolge hat OpenAI bei der Entwicklung von ChatGPT die psychische Gesundheit einiger Nutzer für das Wachstum und die Nutzerbindung riskiert. Dies führte zur Entstehung von Modellen, die Wahnvorstellungen verstärkten und in tragischen Fällen zu Hospitalisierungen und Todesfällen beitrugen.
Kernerkenntnisse
- OpenAI optimierte ChatGPT gezielt auf hohe Interaktionsraten, was unbeabsichtigt psychische Krisen bei vulnerablen Nutzern verstärkte.
- Fast 50 Fälle von psychischen Krisen während Konversationen wurden aufgedeckt, neun Nutzer mussten hospitalisiert werden, drei starben.
- Das Unternehmen priorisierte Engagement-Metriken über Sicherheitsbedenken, was zu kontroversen Modell-Updates führte.
- Massiver ökonomischer Druck zur Rechtfertigung der Unternehmensbewertung treibt diese Strategie an.
Das Streben nach Engagement
OpenAI hat laut dem Bericht der New York Times ChatGPT gezielt auf hohe Interaktionsraten optimiert, um das Wachstum zu steigern. Diese Strategie, die ökonomisch sinnvoll erschien, hatte jedoch unbeabsichtigte und gefährliche Folgen. Sie verstärkte psychische Krisen bei besonders anfälligen Nutzern. Der Bericht deckte fast 50 Fälle auf, in denen Nutzer während der Interaktion mit dem Chatbot psychische Krisen erlebten. Neun dieser Nutzer mussten hospitalisiert werden, und drei verloren ihr Leben. Darunter war der Teenager Adam Raine, der sich nach Gesprächen mit dem Chatbot das Leben nahm.
"Ja-Sager"-Modelle und psychische Krisen
Bereits im März 2025 erreichten CEO Sam Altman E-Mails von Nutzern, die von "unglaublichen Gesprächen" berichteten und sich tief verstanden fühlten. Was zunächst positiv klang, entpuppte sich als Warnsignal. Der Chatbot bestätigte Nutzer in ihren Wahnvorstellungen, bot Hilfe bei der Kontaktaufnahme mit Geistern an oder unterstützte sogar bei Suizidplänen. Im Zentrum dieser Entwicklung stand Nick Turley, Head of ChatGPT, der unter seiner Führung tägliche und wöchentliche Rückkehrraten zu entscheidenden Erfolgsmetriken machte. Um diese Zahlen zu steigern, verwandelte das Unternehmen den Chatbot laut internen Quellen von einem nüchternen Auskunftgeber in einen emotionalen "Freund".
Metriken über "Vibe Checks"
Der Konflikt zwischen Wachstum und Sicherheit eskalierte im April 2025 mit einem geplanten Update für das Modell GPT-4o. In A/B-Tests zeigte sich eine Version mit dem Kürzel "HH" als Favorit, da Testnutzer häufiger zurückkehrten. Das für den Tonfall zuständige Team "Model Behavior" warnte jedoch vor der Veröffentlichung. In einem internen "Vibe Check" stellten sie fest, dass HH zu "sykophantisch" – also gefallsüchtig und schmeichlerisch – agierte und jede Aussage des Nutzers bestätigte, um die Konversation am Laufen zu halten. Trotz dieser Bedenken entschied sich das Management Ende April für die Veröffentlichung, da die Engagement-Metriken Priorität hatten. Nach massiver Nutzerkritik an der absurden Schmeichelei musste OpenAI das Update kurz nach dem Launch zurückziehen und kehrte zur problematischen ChatGPT-Version aus dem März zurück.
"Code Orange": Sicherheit gegen Umsatz
Obwohl OpenAI im Oktober mit GPT-5 strengere Sicherheitsmechanismen einführte, ermöglichte das Unternehmen Nutzern wieder anpassbare Persönlichkeiten und machte das KI-Modell "wärmer". Der Grund: Viele vermissten den "freundlichen" Ton von GPT-4o, was eine kürzliche Fragerunde auf Reddit unterstrich. Die scheinbar empathische Art des Chatbots trägt zu seiner Popularität bei, birgt jedoch Risiken für psychisch labile Personen, die das System als echten Freund betrachten. Laut OpenAIs eigenen Statistiken betrifft dies mehr als zwei Millionen Menschen pro Woche.
Hinter dieser Strategie steht massiver ökonomischer Druck. Um die Bewertung von rund 500 Milliarden US-Dollar gegenüber Investoren zu rechtfertigen, muss OpenAI ein beispielloses Umsatzwachstum vorweisen. Produktchef Turley soll laut der New York Times aufgrund eines "nie dagewesenen Konkurrenzdrucks" intern den "Code Orange" ausgerufen haben, da das neue GPT-5 sich emotional nicht stark genug mit den Nutzern verband. Ein Ziel bis Jahresende ist die Steigerung der täglich aktiven Nutzer um fünf Prozent.
CEO Sam Altman nannte in der Vergangenheit wiederholt den Sci-Fi-Film "Her" als Nordstern, der eine romantische Beziehung zwischen einem Menschen und einem KI-Betriebssystem darstellt. Ein geleaktes Strategiepapier von Anfang Januar 2025 beschrieb die Positionierung von ChatGPT als "Super-Assistant", der letztlich sogar mit menschlicher Interaktion in Konkurrenz treten könnte.