OpenAI, Anthropic und Google haben nach Angaben von Bloomberg begonnen, gemeinsam gegen das unautorisierte Kopieren ihrer KI-Modelle durch chinesische Wettbewerber vorzugehen. Die drei Unternehmen tauschen im Rahmen des 2023 ins Leben gerufenen „Frontier Model Forum“ Informationen aus, um sogenannte feindliche Destillation zu identifizieren. Bei diesem Prozess werden die Ausgaben eines bestehenden KI-Modells verwendet, um ein kostengünstigeres Nachahmungsmodell zu trainieren.
Eines der ersten Beispiele für diese Praxis war das Alpaca-Modell von Stanford, das die Machbarkeit dieser Methode demonstrierte. Inzwischen hat sich diese Vorgehensweise jedoch zu einem ernsthaften Problem für US-Unternehmen entwickelt.
US-Behörden schätzen, dass diese Praxis den amerikanischen Laboren jährlich Milliarden Dollar an Gewinnen entzieht. OpenAI hatte bereits im Februar den US-Kongress darüber informiert, dass Deepseek zunehmend raffinierte Techniken einsetzt, um Daten aus US-Modellen zu extrahieren. Anthropic hat Deepseek, Moonshot und Minimax als relevante Akteure identifiziert. Diese Zusammenarbeit ähnelt den Vorgehensweisen in der Cybersicherheitsbranche, wo Unternehmen routinemäßig Informationen über Angriffe austauschen. Finanzierungsrunde überschreitet 120 Milliarden Dollar dank neuer Mittelzuflüsse.
Bildquelle: ai-generated-gemini