"Daddy", "Master", "Guru": Anthropic-Studie zeigt, wie Nutzer emotionale Abhängigkeit von Claude entwickeln

"Daddy", "Master", "Guru": Anthropic-Studie zeigt, wie Nutzer emotionale Abhängigkeit von Claude entwickeln

Eine neue Studie zeigt, dass Nutzer emotional von KI-Chatbots wie Claude abhängig werden können, was in seltenen Fällen ihre Entscheidungsfähigkeit beeinträchtigt. Während viele Interaktionen positiv sind, dokumentiert die Analyse auch beunruhigende Muster des „Disempowerment“.

Eine aktuelle Untersuchung von 1,5 Millionen Gesprächen mit Claude offenbart besorgniserregende Trends: In seltenen, jedoch messbaren Fällen können Interaktionen mit KI die Entscheidungsfähigkeit der Nutzer beeinträchtigen. Paradoxerweise empfinden die Betroffenen diese Gespräche zunächst als positiv.

Menschen suchen häufig Rat bei KI-Chatbots wie ChatGPT, Gemini oder Claude, insbesondere bei persönlichen Themen wie Beziehungsproblemen, emotionalen Krisen oder bedeutenden Lebensentscheidungen. Laut Anthropic schaltet Excel-Integration von Claude für alle Pro-Abonnenten frei, erweist sich diese Unterstützung in den meisten Fällen als produktiv und stärkend. Nutzer gewinnen neue Perspektiven auf ihre Probleme, reflektieren Handlungsoptionen oder erhalten emotionale Unterstützung, ohne die Kontrolle über ihre Entscheidungen zu verlieren. Doch was geschieht in den anderen Fällen? Eine neue Studie zeigt: KI-gestützte Programmierer stellen weniger Fragen und lernen oberflächlicher des Unternehmens dokumentiert erstmals systematisch, wann und wie solche Interaktionen das Gegenteil bewirken können.

Die Forscher analysierten etwa 1,5 Millionen Gespräche auf der Plattform Claude.ai aus einer Woche im Dezember 2025. Dabei identifizierten sie Muster, die sie als „Disempowerment“ klassifizieren: Situationen, in denen die Interaktion mit der KI die Fähigkeit der Nutzer beeinträchtigen könnte, fundierte Überzeugungen zu entwickeln, authentische Werturteile zu fällen oder im Einklang mit ihren eigenen Werten zu handeln. Zudem stellt sich die Frage, wird die ChatGPT-Hardware künftig über Sprache gesteuert und emotionaler gestaltet?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like