Anthropic hat einen neuen „AI Fluency Index“ veröffentlicht, der die Kompetenz von Menschen im Umgang mit KI-Werkzeugen bewertet. Ein wesentlicher Befund dieser Studie ist, dass die kritische Aufmerksamkeit der Nutzer abnimmt, wenn Claude qualitativ hochwertige Ergebnisse liefert. Diese emotionale Abhängigkeit von Claude wird in der Studie deutlich.
Die zunehmende Nutzung von KI-Tools im Alltag sagt wenig über deren sinnvollen Einsatz aus. Diese Thematik untersucht Anthropic mit dem neuen AI Fluency Index, für den im Januar nahezu 10.000 anonymisierte Interaktionen mit Claude analysiert wurden. Dabei zeigt sich, dass Kontext-Dateien für KI-Agenten oft gut gemeint, aber selten hilfreich sind.
Das Unternehmen hat dabei verschiedene Muster identifiziert. Ein bemerkenswerter Aspekt ist, dass je raffinierter die Ergebnisse der KI erscheinen, desto seltener die Nutzer deren Richtigkeit hinterfragen. In 12,3 Prozent der generierten Gespräche traten sogenannte Artefakte auf, also von Claude erzeugte Produkte wie Code, Dokumente oder interaktive Werkzeuge. Neueste Entwicklungen zeigen, dass Anthropic die Excel-Integration von Claude für alle Pro-Abonnenten freigeschaltet hat.