KI Gehirn mit dunklen Ranken umwickelt

Anthropic unter Beschuss: Manipulative Praktiken bei KI-Datennutzung aufgedeckt

Das KI-Unternehmen Anthropic steht wegen seiner neuen Datenschutzrichtlinien für die Chatplattform Claude in der Kritik. Nutzern der Consumer-Produkte wird eine Entscheidung abverlangt: Wer bis zum 28. September 2025 nicht aktiv widerspricht, stimmt der Nutzung seiner Chats für das KI-Training zu. Dies verlängert zudem die Speicherfrist von 30 Tagen auf bis zu fünf Jahre. Unternehmens-, Bildungs-, Regierungs- und API-Konten sind von dieser Regelung ausgenommen.

Schlüsselerkenntnisse

  • Anthropic nutzt ein "Dark Pattern" zur Einholung der Zustimmung zur KI-Datennutzung.
  • Bestehende Nutzer sehen ein Pop-up mit einem dominanten "Akzeptieren"-Button und einem standardmäßig aktivierten Schalter für die Datenfreigabe.
  • Diese Taktik ähnelt dem Vorgehen von OpenAI bei ChatGPT, wo die Datenfreigabe ebenfalls standardmäßig aktiviert ist.
  • Datenschutzexperten und die DSGVO betrachten solche vorangekreuzten oder standardmäßig aktivierten Optionen als unzulässige Einwilligung.

Manipulative Benutzeroberfläche

Anthropic setzt bei der Umstellung seiner Datenschutzpraxis auf ein Interface-Design, das als "Dark Pattern" bezeichnet wird. Nutzern wird ein Pop-up mit einem auffälligen, schwarz hinterlegten "Akzeptieren"-Button präsentiert. Der Schalter zur Freigabe der Daten für das KI-Training ist klein, unauffällig platziert und standardmäßig aktiviert. Zusätzliche positive Formulierungen wie "Du kannst helfen…" sollen die Zustimmung weiter fördern. Ein blasser "Nicht jetzt"-Button und schwer auffindbare Optionen zur späteren Änderung der Einstellungen runden das manipulative Design ab.

Rechtliche Bedenken und DSGVO-Konformität

Solche Interface-Tricks, bekannt als Dark Patterns, sind nach der Datenschutz-Grundverordnung (DSGVO) und der Rechtsprechung des Europäischen Gerichtshofs unzulässig, wenn es um die Einholung einer Einwilligung zur Datenverarbeitung geht. Vorangekreuzte Kästchen oder standardmäßig aktivierte Optionen gelten nicht als gültige Zustimmung. Der Europäische Datenschutzausschuss (EDPB) hat in seinen Leitlinien ebenfalls betont, dass eine Einwilligung freiwillig, informiert und eindeutig sein muss. Das aktuelle Design von Claude untergräbt diese Anforderungen erheblich, was dazu führen könnte, dass Anthropic ins Visier von Datenschützern gerät.

Vergleich mit OpenAI

Das Prinzip der voreingestellten Trainingsfreigabe mit einer Opt-out-Möglichkeit ist nicht neu. OpenAI verfolgt bei ChatGPT ein ähnliches Muster, bei dem die Option zur Verwendung von Nutzereingaben für das Modelltraining standardmäßig aktiviert ist und manuell deaktiviert werden muss. Während OpenAI dieses Muster von Beginn an etabliert hat, führt Anthropic die Trainingsnutzung nun neu ein und muss daher eine aktive Einwilligung einholen, was die Kritik an den verwendeten Methoden verstärkt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like