Neue Chip-Analyse skizziert, wie Googles KI-Chips Nvidia Konkurrenz machen

Neue Chip-Analyse skizziert, wie Googles KI-Chips Nvidia Konkurrenz machen

Neue Chip-Analyse skizziert, wie Googles KI-Chips Nvidia Konkurrenz machen

Nano Bana Pro prompted by THE DECODER

Kurz & Knapp

  • Google bietet seine neuen TPUv7-Chips erstmals gezielt anderen Unternehmen an und tritt damit in direkte Konkurrenz zu Nvidia.
  • Ein bedeutender Kunde ist das KI-Start-up Anthropic, das plant, bis zu eine Million TPUs einzusetzen. Diese Verfügbarkeit hat die Preise für KI-Rechenleistung deutlich gesenkt.
  • Falls Nvidia mit der nächsten „Rubin“-Generation planmäßig liefert, könnte Googles derzeitiger Kostenvorteil wieder verschwinden.

Google entwickelt sich vom internen Chip-Nutzer zum Anbieter und stellt eine Herausforderung für Nvidia dar. Eine Analyse zeigt, dass die bloße Existenz der neuen TPUs die Preise für KI-Rechenleistung erheblich senkt.

Bislang nutzte Google seine „Tensor Processing Units“ (TPUs) fast ausschließlich für eigene KI-Modelle. Mit der neuen Generation TPUv7 „Ironwood“ ändert sich diese Strategie jedoch grundlegend. Laut einer Analyse der Chip-Experten von SemiAnalysis verkauft Google seine Chips nun aktiv an Dritte und positioniert sich damit als direkter Mitbewerber von Nvidia.

Der prominenteste Kunde ist das KI-Start-up Anthropic. Der Analyse zufolge umfasst der Deal etwa eine Million TPUs, teilweise als direkter Hardware-Kauf und teilweise als Cloud-Miete über die Google Cloud Platform (GCP). Die Leistungsaufnahme dieser Infrastruktur soll mehr als ein Gigawatt betragen.

Die Auswirkungen auf den Markt sind bereits spürbar. Laut SemiAnalysis konnte OpenAI allein durch die glaubhafte Drohung, auf TPUs oder Alternativen umzusteigen, rund 30 Prozent Rabatt auf seine Nvidia-Flotte aushandeln. „Je mehr TPUs ihr kauft, desto mehr Nvidia-Investitionsausgaben spart ihr“, schreiben die Analysten Dylan Patel, Myron Xie und Daniel Nishball in ironischer Anspielung auf den berühmten Satz von Nvidia-CEO Jensen Huang.

TPUs etablieren sich als GPU-Alternative

Die Tatsache, dass TPUs keine zweitklassige Alternative mehr sind, zeigt sich im praktischen Einsatz: Zwei der derzeit leistungsfähigsten KI-Modelle, Googles Gemini 3 und Anthropics Claude 4.5 Opus, nutzen überwiegend Google TPUs und Amazons Trainium-Chips. Gemini 3 wurde vollständig auf TPUs trainiert.

Technisch schließt die TPUv7 „Ironwood“ laut SemiAnalysis nahezu vollständig zu Nvidias Blackwell-Generation auf, sowohl hinsichtlich der theoretischen Rechenleistung (FLOPs) als auch der Speicherbandbreite. Der entscheidende Vorteil liegt jedoch in den Kosten.

Für Google liegen die Gesamtbetriebskosten (TCO) pro Chip etwa 44 Prozent niedriger als bei einem vergleichbaren Nvidia-GB200-System. Selbst für externe Kunden wie Anthropic, an die Google die Chips mit Marge weiterverkauft, könnten die Kosten pro effektiv genutzter Recheneinheit laut dem Modell der Analysten 30 bis 50 Prozent unter denen von Nvidia-Systemen liegen.

Dies gilt insbesondere für Teams, die ihre Software gut optimieren. Googles TPU‑System kann bis zu 9.216 Chips in einem einzigen, eng vernetzten Verbund koppeln. Dadurch lassen sich sehr große KI‑Trainings einfacher verteilen als bei herkömmlichen Nvidia-Systemen, die meist 64 bis 72 Chips eng zusammenschalten.

Angriff auf das CUDA-Monopol

Ein Hindernis für die Verbreitung von TPUs war bisher die Software. Nvidias CUDA-Plattform gilt als Standard. Google investiert nun erheblich, um diese Hürde abzubauen. Laut dem Bericht arbeitet das Unternehmen an einer nativen Unterstützung für das beliebte Framework PyTorch sowie an der Integration in Inferenz-Bibliotheken wie vLLM.

Das Ziel ist es, TPUs als Alternative nutzbar zu machen, ohne dass Entwickler ihre gesamte Werkzeugkette umstellen müssen. Allerdings bleibt der Kern des TPU-Software-Stacks (XLA-Compiler) proprietär, was SemiAnalysis als verpasste Gelegenheit für eine schnellere Adaption durch die Open-Source-Community bewertet.

Um die physische Infrastruktur für die großen Mengen an Chips bereitzustellen, nutzt Google neue Finanzierungsmodelle. Der Konzern arbeitet mit „Neoclouds“ wie Fluidstack und Krypto-Minern wie TeraWulf zusammen. Dabei agiert Google häufig als finanzieller Rückhalt („Backstop“): Fällt der Betreiber aus, garantiert Google die Mietzahlungen. Dies ermöglicht den schnellen Umbau vorhandener Rechenzentren aus dem Krypto-Sektor für KI-Anwendungen.

Nvidias Antwort steht bevor – und könnte Google wieder abhängen

Angesichts der aktuellen Erfolge von Google steht Nvidia technologisch unter Druck. Als Antwort setzt die nächste Nvidia‑Generation ‚Vera Rubin‘ (voraussichtlich 2026/2027) auf aggressivere Designentscheidungen wie HBM4‑Speicher und extrem hohe Bandbreiten.

Googles geplante Antwort, die TPUv8, verfolgt laut SemiAnalysis eine zweigleisige Strategie: Sie soll in zwei Varianten erscheinen – eine Version entwickelt mit dem langjährigen Partner Broadcom (Codename „Sunfish“) und eine weitere mit MediaTek (Codename „Zebrafish“). Trotz dieser Diversifizierung wirkt das Design im direkten Vergleich jedoch fast zurückhaltend. Das Projekt leidet laut den Analysten unter Verzögerungen und setzt auf eine konservativere Architektur, die weder TSMCs 2nm-Prozess noch HBM4 so aggressiv nutzt wie die Konkurrenz.

Das Risiko für den Suchmaschinenriesen ist hoch: Sollten Nvidias kurzfristige Leistungssteigerungen bei Rubin erfolgreich sein, könnte der derzeitige Kostenvorteil der TPUs vollständig entfallen. SemiAnalysis warnt sogar vor einem Szenario, in dem Nvidias Rubin-Systeme („Kyber Rack“) selbst für Googles interne Workloads wirtschaftlicher wären als die eigene TPUv8.

„Google hat seine Karten gezeigt“, schreibt SemiAnalysis. Der Konzern habe mit der TPUv7 stark vorgelegt und Nvidia preislich unter Druck gesetzt. Nun müsse Nvidia liefern. Gelingt dem Marktführer die fehlerfreie Umsetzung seiner Roadmap, bleibt er an der Spitze. Strauchelt Nvidia jedoch bei der Leistung oder dem Zeitplan von Rubin, könnte die Marktposition ernsthaft gefährdet sein.

Bildquelle: Pexels / Bo Stevens

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like