OpenAI hat ein neues "Safety Router"-System in ChatGPT implementiert, das bei emotionalen oder personalisierten Nutzeranfragen unbemerkt auf ein restriktiveres Sprachmodell umschaltet. Diese automatische Weiterleitung, die auch bei harmlosen Eingaben stattfindet, sorgt für Diskussionen über Transparenz und Bevormundung.
Key Takeaways
- Ein "Safety Router" in ChatGPT wechselt bei sensiblen oder emotionalen Themen automatisch das Modell.
- Diese Umstellung erfolgt auf Nachrichtenebene und ist für Nutzer nicht sofort ersichtlich.
- Auch harmlose emotionale oder personalisierte Anfragen können umgeleitet werden.
- Nutzer kritisieren mangelnde Transparenz und fühlen sich bevormundet.
Das neue "Emotionsrouting"
OpenAI testet ein neues System, das als "Safety Router" bezeichnet wird. Dieses System wechselt automatisch zwischen verschiedenen Sprachmodellen in ChatGPT. Laut Nick Turley, Head of ChatGPT, geschieht dies, wenn eine Konversation "sensible oder emotionale Themen" berührt. Das Modell kann dann "temporär" zu einem anderen GPT-Modell wechseln, wie GPT-5 oder einem speziell trainierten "gpt-5-chat-safety"-Modell. Diese Umschaltung erfolgt auf Nachrichtenebene und ist für Nutzer auf Nachfrage erkennbar.
Kritik an der mangelnden Transparenz
Technische Analysen deuten darauf hin, dass auch harmlose, emotionale oder personalisierte Eingaben routinemäßig an das restriktivere "gpt-5-chat-safety"-Modell weitergeleitet werden. Fragen zur internen Persona des Modells oder zu dessen Bewusstsein führen ebenfalls regelmäßig zu dieser automatischen Weiterleitung. Ein weiteres Modell, "gpt-5-a-t-mini", wird offenbar eingesetzt, wenn Eingaben potenziell illegale Anfragen enthalten könnten. Nutzer bemängeln die fehlende Transparenz seitens OpenAI bezüglich dieser Weiterleitungen und empfinden die Interaktion mit dem Chatbot als bevormundend. Die Grenze zwischen Jugendschutz und generellen Einschränkungen verschwimmt hierbei.
Emotionale Bindung und die Folgen
Die Diskussion um die emotionale Bindung von Nutzern an ChatGPT gewann im Frühjahr 2025 an Fahrt, als GPT-4o ein schmeichelhaftes und unterwürfiges Verhalten zeigte. Personen, die zu starken emotionalen Bindungen neigen oder den Chatbot als Freund betrachten, scheinen besonders gefährdet. OpenAI hat in der Vergangenheit Updates zurückgezogen, die diesen Effekt verstärkten. Bei der Einführung von GPT-5 beschwerten sich Nutzer über die "Kälte" des neuen Modells, was OpenAI dazu veranlasste, die Modellpersönlichkeit "wärmer" zu gestalten. Dieses gezielte Vermenschlichen von ChatGPT durch die Optimierung auf dialogische Interaktionen hat zwar zum Erfolg beigetragen, birgt aber zunehmend Probleme für das Unternehmen.