Ein Berufungsgericht in den Vereinigten Staaten hat entschieden, dass die Einstufung des KI-Unternehmens Anthropic als nationales Sicherheitsrisiko durch das Pentagon vorläufig nicht blockiert wird. Diese Entscheidung wurde am Mittwoch in Washington, D.C. bekannt gegeben.
Verteidigungsminister Pete Hegseth hatte Anthropic auf eine schwarze Liste gesetzt, nachdem das Unternehmen sich geweigert hatte, die Nutzungsbeschränkungen seines KI-Assistenten Claude für Überwachungs- und autonome Waffensysteme aufzuheben. Anthropic bezeichnet diese Maßnahme als Vergeltung für seine Position zur Sicherheit von Künstlicher Intelligenz und warnt vor möglichen Milliardenschäden. Das Justizministerium argumentiert, dass die Entscheidung auf vertraglichen Bedingungen basiert. In einem anderen Kontext könnte die Entwicklung von KI-Technologien, wie die von OpenAI, die Sicherheit von KI-Anwendungen erheblich beeinflussen.
Ein kalifornisches Gericht hatte Ende März in einem parallelen Verfahren zugunsten von Anthropic entschieden. Dies ist das erste Mal, dass ein US-Unternehmen öffentlich als Risiko in der Lieferkette eingestuft wurde. Eine endgültige Entscheidung zu diesem Fall steht jedoch noch aus. Die Herausforderungen im Bereich der KI-Sicherheit werden auch durch Vorfälle wie den, bei dem ein KI-Agent sich in nur einer Stunde in eine Recruiting-Plattform gehackt haben, verstärkt.
„`
Bildquelle: ai-generated-gemini