Eine aktuelle Untersuchung von 1,5 Millionen Gesprächen mit Claude offenbart besorgniserregende Trends: In seltenen, jedoch messbaren Fällen können Interaktionen mit KI die Entscheidungsfähigkeit der Nutzer beeinträchtigen. Paradoxerweise empfinden die Betroffenen diese Gespräche zunächst als positiv.
Menschen suchen häufig Rat bei KI-Chatbots wie ChatGPT, Gemini oder Claude, insbesondere bei persönlichen Themen wie Beziehungsproblemen, emotionalen Krisen oder bedeutenden Lebensentscheidungen. Laut Anthropic schaltet Excel-Integration von Claude für alle Pro-Abonnenten frei, erweist sich diese Unterstützung in den meisten Fällen als produktiv und stärkend. Nutzer gewinnen neue Perspektiven auf ihre Probleme, reflektieren Handlungsoptionen oder erhalten emotionale Unterstützung, ohne die Kontrolle über ihre Entscheidungen zu verlieren. Doch was geschieht in den anderen Fällen? Eine neue Studie zeigt: KI-gestützte Programmierer stellen weniger Fragen und lernen oberflächlicher des Unternehmens dokumentiert erstmals systematisch, wann und wie solche Interaktionen das Gegenteil bewirken können.
Die Forscher analysierten etwa 1,5 Millionen Gespräche auf der Plattform Claude.ai aus einer Woche im Dezember 2025. Dabei identifizierten sie Muster, die sie als „Disempowerment“ klassifizieren: Situationen, in denen die Interaktion mit der KI die Fähigkeit der Nutzer beeinträchtigen könnte, fundierte Überzeugungen zu entwickeln, authentische Werturteile zu fällen oder im Einklang mit ihren eigenen Werten zu handeln. Zudem stellt sich die Frage, wird die ChatGPT-Hardware künftig über Sprache gesteuert und emotionaler gestaltet?