Claude KI mit Qualitätsproblemen

Nutzer hatten Recht: Anthropic bestätigt Qualitätsprobleme bei Claude

Nach wochenlangen Beschwerden von Entwicklern und Nutzern hat Anthropic nun eingeräumt, dass es Qualitätsprobleme bei seinen KI-Modellen der Claude-Reihe gab. Insbesondere die Code-Generierungsfähigkeiten waren betroffen. Das Unternehmen bestätigte zwei behobene Fehler und untersucht weitere Meldungen, was die Bedenken der Community bestätigt.

Nutzerbeschwerden und Spekulationen

Seit Ende August 2025 häuften sich auf Plattformen wie Reddit, X und YouTube Berichte über eine spürbare Verschlechterung der Leistung von Claude, vor allem bei der Code-Generierung. Nutzer beschrieben, dass das Modell "viel schlechter geworden" sei, seinen "eigenen Plan ignoriert und den Code durcheinandergebracht" habe oder sogar über vorgenommene Code-Änderungen "lüge".

Die Community spekulierte über die Ursachen, von einer absichtlichen Leistungsdrosselung bis hin zu technischen Gründen wie dem Einsatz "quantisierter Varianten". Auch "Context Rot" bei langen Konversationen oder eine wachsende Komplexität der eigenen Codebasis wurden als mögliche Faktoren genannt.

Anthropic räumt Fehler ein und verspricht Besserung

  • Anthropic hat auf Nachfrage von THE DECODER zwei behobene Fehler bestätigt, die Claude Sonnet 4 und Claude Haiku 3.5 betrafen.
  • Das Unternehmen untersucht derzeit Berichte über die Ausgabequalität von Claude Opus 4.1.
  • Anthropic betonte, dass Nutzerfeedback entscheidend zur Identifizierung und Priorisierung dieser Probleme beigetragen habe.
  • In einem offiziellen Vorfallbericht stellte Anthropic klar, dass die Modellqualität "niemals absichtlich aufgrund von Nachfrage oder anderen Faktoren" verschlechtert werde und die Probleme auf "nicht zusammenhängende Fehler" zurückzuführen seien.

Transparenz und Vertrauen

Die Situation erinnert an ähnliche Vorwürfe gegen OpenAI im August 2024 und im zweiten Halbjahr 2023, als Nutzer eine Verschlechterung der GPT-4-Leistung beklagten. Während OpenAI damals eine signifikante Veränderung nach der Veröffentlichung bestritt und viele Beobachter die Beschwerden auf eine subjektive Wahrnehmung zurückführten, zeigt der Fall Claude, dass tatsächliche technische Probleme hinter solchen Wahrnehmungen stecken können. Dies unterstreicht die Notwendigkeit einer transparenteren Kommunikation seitens der KI-Anbieter, um das Vertrauen der Nutzer in eine Technologie zu sichern, deren Leistung nicht immer konstant ist.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like