KI News

Deepseek, Moonshot und MiniMax: Anthropic kritisiert systematischen Datenklau aus China

2 min Lesezeit
Deepseek, Moonshot und MiniMax: Anthropic kritisiert systematischen Datenklau aus China

Anthropic hat umfangreiche Destillationsangriffe der chinesischen KI-Labore Deepseek, Moonshot und MiniMax auf ihr Modell Claude identifiziert. Bei der Destillation wird ein weniger leistungsfähiges Modell mit den Ergebnissen eines leistungsstärkeren trainiert. Über 24.000 gefälschte Konten erzeugten mehr als 16 Millionen Anfragen, die gezielt auf Claudes Stärken in den Bereichen logisches Denken, Programmierung und Werkzeugnutzung abzielten. Laut Anthropic setzten die Labore Proxy-Dienste ein, um die Zugangsbeschränkungen in China zu umgehen.

Angriffe der Labore im Detail

  • DeepSeek: Über 150.000 Anfragen, um Denkschritte offenzulegen, Daten für das Belohnungsmodell im Reinforcement Learning zu sammeln und zensurkonforme Antworten auf politisch sensible Themen zu erhalten.
  • Moonshot AI: Mehr als 3,4 Millionen Anfragen, die agentenbasiertes Denken, Werkzeugnutzung, Programmierung, Datenanalyse, Computer-Vision und die Rekonstruktion von Claudes Denkprozessen zum Ziel hatten.
  • MiniMax: Über 13 Millionen Anfragen, die sich auf agentenbasiertes Programmieren, Werkzeugnutzung und -orchestrierung konzentrierten; das Labor wechselte innerhalb von 24 Stunden auf ein neues Claude-Modell.

Deepseek gelang es, Claude dazu zu bringen, Denkschritte offenzulegen und zensurkonforme Antworten auf politisch heikle Fragen zu generieren. Mit über 13 Millionen Anfragen war MiniMax die größte Kampagne. Als Anthropic ein neues Modell veröffentlichte, wechselte MiniMax innerhalb von 24 Stunden und leitete fast die Hälfte seines Datenverkehrs auf das neue System um. Anthropic schaltet Excel-Integration von Claude für alle Pro-Abonnenten frei.

Anthropic fordert eine koordinierte Reaktion von Industrie und Politik. Auch andere Unternehmen wie OpenAI und Google berichteten von ähnlichen Versuchen aus China. „Daddy“, „Master“, „Guru“: Anthropic-Studie zeigt, wie Nutzer emotionale Abhängigkeit von Claude entwickeln.

KI Snack

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert