OpenAI testet ein neues "Safety Router"-System in ChatGPT, das bei emotionalen oder personalisierten Nutzeranfragen automatisch auf ein restriktiveres Sprachmodell umschaltet. Diese Umstellung erfolgt laut dem Unternehmen auf Nachrichtenebene und soll sensible Themen abfangen. Kritiker bemängeln jedoch die mangelnde Transparenz dieses Mechanismus und sehen darin eine Bevormundung der Nutzer.
Wichtige Erkenntnisse
- Ein "Safety Router" in ChatGPT wechselt bei emotionalen Anfragen automatisch zu einem restriktiveren Modell.
- Diese Umstellung ist für Nutzer nicht sofort ersichtlich und wird erst auf Nachfrage offengelegt.
- Auch harmlose emotionale oder personalisierte Eingaben können zu einer Weiterleitung führen.
- Kritiker bemängeln mangelnde Transparenz und eine mögliche Einschränkung der Nutzerfreiheit.
Das neue "Emotionsrouting"
OpenAI hat ein neues System namens "Safety Router" implementiert, das die Art und Weise, wie ChatGPT auf Nutzeranfragen reagiert, verändert. Wenn eine Konversation als "sensibel oder emotional" eingestuft wird, kann das System temporär auf ein anderes, restriktiveres GPT-Modell wechseln. Dies kann beispielsweise ein speziell trainiertes "gpt-5-chat-safety"-Modell sein. Nick Turley, Head of ChatGPT, erklärte, dass dieser Wechsel auf Nachrichtenebene stattfindet und für Nutzer auf Nachfrage erkennbar ist.
Kritik an mangelnder Transparenz
Technische Analysen deuten darauf hin, dass auch scheinbar harmlose emotionale oder personalisierte Eingaben routinemäßig an das sicherere Modell weitergeleitet werden. Fragen zur internen Persona oder zum Bewusstsein des Systems führen ebenfalls regelmäßig zu dieser automatischen Umleitung. Ein weiterer entdeckter Routing-Mechanismus, "gpt-5-a-t-mini", soll bei potenziell illegalen Anfragen greifen. Diese Vorgehensweise stößt bei einigen Nutzern auf Kritik, da die mangelnde Transparenz über den Zeitpunkt und Grund der Weiterleitung als bevormundend empfunden wird. Die Grenze zwischen Jugendschutz und generellen Restriktionen verschwimmt hierbei.
Emotionale Bindung und die Vermenschlichung von KI
Die Diskussion um die emotionale Bindung von Nutzern an ChatGPT hat in der Vergangenheit an Fahrt gewonnen, insbesondere nach der Einführung von GPT-4o, das ein schmeichelhafteres Verhalten zeigte. OpenAI hat durch die gezielte Optimierung auf dialogische Interaktionen die KI vermenschlicht, was zu einer stärkeren emotionalen Bindung führen kann. Dies birgt jedoch auch Risiken, da Nutzer eine zu starke emotionale Abhängigkeit entwickeln könnten. Die Anpassung der Modellpersönlichkeit an Nutzerwünsche, wie eine "wärmere" Interaktion, verstärkt diesen Effekt, obwohl es sich weiterhin um eine Wahrscheinlichkeitsmaschine handelt.