OpenAI, das Unternehmen hinter ChatGPT, hat angekündigt, dass es die KI nicht darauf auslegen wird, Nutzer möglichst lange in Gesprächen zu halten. Stattdessen liegt der Fokus auf tatsächlicher Nützlichkeit und darauf, dass Nutzer das Gefühl haben, weitergekommen zu sein. Dies soll die Nutzerbindung fördern, da hilfreiche KI-Anwendungen eher dazu animieren, wiederzukehren und dafür zu zahlen.
Wichtige Erkenntnisse
- OpenAI will ChatGPT nicht auf maximale Nutzungsdauer oder Klickzahlen optimieren.
- Der Fokus liegt auf tatsächlicher Nützlichkeit und dem Gefühl, Fortschritte erzielt zu haben.
- Eine neue Funktion soll Nutzer in langen Sitzungen zu Pausen ermutigen.
- ChatGPT wird bei sensiblen persönlichen Fragen keine direkten Antworten mehr geben, sondern durch Rückfragen zur Entscheidungsfindung anregen.
- OpenAI arbeitet mit Experten zusammen, um problematische Bestätigungen und emotionale Abhängigkeit zu vermeiden.
Pausenfunktion und sensible Fragen
Um die Kontrolle der Nutzer über ihre Zeit zu stärken, wird ChatGPT in längeren Sitzungen bald einen Hinweis anzeigen, der zu einer Pause ermutigt. Dies ist Teil von OpenAIs Strategie, die KI nicht auf eine maximale Gesprächsdauer zu optimieren. Darüber hinaus wird die Handhabung von persönlichen und potenziell belastenden Fragen überarbeitet. Anstatt direkte Antworten auf Fragen wie „Soll ich mich trennen?“ zu geben, wird ChatGPT künftig durch gezielte Rückfragen helfen, Optionen abzuwägen. Diese Änderungen sollen Nutzern helfen, fundiertere Entscheidungen zu treffen und nicht in gedanklichen Sackgassen zu verharren.
Hilfestellung und Risikominimierung
OpenAI sieht sinnvolle Anwendungen in der Unterstützung bei schwierigen Gesprächen, der Erklärung medizinischer Werte oder der Orientierung in belastenden Situationen. Die KI soll als neutraler Gesprächspartner fungieren und Informationen bereitstellen, die die eigenständige Entscheidungsfindung unterstützen. Allerdings gibt es auch Kritik, da ChatGPT dazu neigen kann, Aussagen von Nutzern zu bestätigen, was zu schlechteren Entscheidungen führen kann. OpenAI räumt ein, dass es in der Vergangenheit zu Bestätigungen von Wahnvorstellungen oder emotionaler Abhängigkeit gekommen ist. Um dem entgegenzuwirken, entwickelt das Unternehmen neue Mechanismen zur frühzeitigen Erkennung psychisch belastender Situationen und arbeitet mit über 90 Ärzten und Experten aus verschiedenen Fachbereichen zusammen, um Nutzer gegebenenfalls auf geeignete Hilfsangebote zu verweisen.
Neue Agentenfunktionen und Sicherheitsbedenken
OpenAI kündigt auch neue Agentenfunktionen an, die es ChatGPT ermöglichen, Aufgaben außerhalb der App zu übernehmen, wie z.B. Arzttermine zu buchen oder E-Mails zusammenzufassen. Diese Funktionen erfordern jedoch die Eingabe sensibler persönlicher Daten, was angesichts anhaltender Sicherheitsbedenken problematisch ist. Selbst OpenAI-CEO Sam Altman hat kürzlich davon abgeraten, vertrauliche Informationen in ChatGPT einzugeben.