KI-Zugangsbeschränkung für China

Anthropic schränkt KI-Zugang für China-kontrollierte Unternehmen ein

Das auf künstliche Intelligenz spezialisierte Unternehmen Anthropic hat seine Nutzungsbedingungen verschärft und schließt ab sofort Unternehmen aus, die mehrheitlich von Entitäten aus China, Russland, Iran oder Nordkorea kontrolliert werden, von der Nutzung seiner KI-Dienste aus. Diese Maßnahme begründet Anthropic mit nationalen Sicherheitsbedenken und dem Wunsch, ein "Schlupfloch" für autoritäre Staaten zu schließen.

Wichtige Erkenntnisse

  • Anthropic verbietet Unternehmen, die mehrheitlich von chinesischen, russischen, iranischen oder nordkoreanischen Entitäten kontrolliert werden, die Nutzung seiner KI-Dienste.
  • Grund sind nationale Sicherheitsbedenken und die Sorge, dass autoritäre Regime KI-Fähigkeiten für militärische oder geheimdienstliche Zwecke missbrauchen könnten.
  • Die neue Regelung betrifft auch Tochterunternehmen und soll verhindern, dass diese über ausländische Niederlassungen auf die Technologie zugreifen.
  • Anthropic erwartet dadurch Geschäftseinbußen im niedrigen dreistelligen Millionenbereich, hält den Schritt aber für notwendig.

Verschärfte Nutzungsbedingungen aus Sicherheitsgründen

Anthropic, ein führendes Unternehmen im Bereich der künstlichen Intelligenz, hat seine Nutzungsbedingungen aktualisiert, um den Zugang zu seinen KI-Modellen, wie Claude, für Unternehmen einzuschränken, die unter der Kontrolle von Staaten stehen, die als Gegner der USA gelten. Dies betrifft insbesondere Unternehmen, die mehrheitlich im Besitz von Entitäten aus China, Russland, Iran und Nordkorea sind. Diese Neuregelung ist die erste dieser Art von einem großen amerikanischen KI-Unternehmen und tritt sofort in Kraft.

Schließung eines "Schlupflochs" für autoritäre Staaten

Das Unternehmen begründet diesen Schritt mit nationalen Sicherheitsbedenken. Anthropic erklärt, dass Unternehmen aus autoritären Staaten bisher die Möglichkeit hatten, über Tochtergesellschaften in anderen Ländern auf die KI-Modelle zuzugreifen. Dies schaffe Risiken, da solche Unternehmen gesetzlich gezwungen werden könnten, Daten weiterzugeben oder mit Geheimdiensten zusammenzuarbeiten. Es besteht die Sorge, dass diese KI-Fähigkeiten für die Entwicklung von Anwendungen für gegnerische Militär- und Geheimdienste oder zur Beschleunigung der eigenen KI-Entwicklung genutzt werden könnten.

Auswirkungen auf Tochterunternehmen und Geschäft

Die aktualisierte Richtlinie verbietet ausdrücklich die Nutzung durch Unternehmen, deren Eigentümerstrukturen sie der Kontrolle von Gerichtsbarkeiten unterwerfen, in denen Anthropic-Produkte nicht zugelassen sind. Dies schließt Entitäten ein, die direkt oder indirekt zu mehr als 50 Prozent im Besitz von Firmen mit Hauptsitz in nicht unterstützten Regionen sind. Große chinesische Technologiekonzerne wie ByteDance, Tencent und Alibaba könnten potenziell von dieser Regelung betroffen sein. Anthropic rechnet mit Geschäftseinbußen im niedrigen dreistelligen Millionenbereich, sieht den Schritt aber als notwendig an, um auf ein "erhebliches Problem" aufmerksam zu machen.

Situation in China und Alternativen

Obwohl US-Chatbots wie Claude oder ChatGPT in China offiziell gesperrt sind, können sie über VPN-Dienste genutzt werden. China verfügt jedoch über eine wachsende Zahl leistungsfähiger eigener KI-Alternativen, darunter die Modellreihen Qwen, Deepseek, Kimi und GLM. Die tatsächlichen Auswirkungen der neuen Nutzungsbedingungen von Anthropic in China könnten daher begrenzt sein, insbesondere wenn die heimischen Hersteller weiterhin wettbewerbsfähige Alternativen anbieten können.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like