Googles TPUv7-Chips: Neue Konkurrenz für Nvidia im KI-Markt
Kurz & Knapp
- Google bietet seine neuen TPUv7-Chips erstmals gezielt für externe Unternehmen an und tritt damit in direkte Konkurrenz zu Nvidia.
- Ein bedeutender Kunde ist das KI-Start-up Anthropic, das plant, bis zu eine Million TPUs zu nutzen. Diese Verfügbarkeit hat die Preise für KI-Rechenleistung deutlich gesenkt.
- Falls Nvidia mit der nächsten „Rubin“-Generation planmäßig liefert, könnte Googles derzeitiger Kostenvorteil wieder schwinden.
Google entwickelt sich vom internen Chip-Nutzer zum Anbieter und stellt eine Herausforderung für Nvidia dar. Eine Analyse zeigt, dass die bloße Existenz der neuen TPUs die Preise für KI-Rechenleistung erheblich senkt.
Bislang setzte Google seine „Tensor Processing Units“ (TPUs) hauptsächlich für eigene KI-Modelle ein. Mit der neuen Generation TPUv7 „Ironwood“ ändert sich diese Strategie jedoch grundlegend. Laut einer Analyse der Chip-Experten von SemiAnalysis verkauft Google seine Chips nun aktiv an Dritte und positioniert sich damit als direkter Mitbewerber von Nvidia.
Der prominenteste Kunde ist das KI-Start-up Anthropic. Der Analyse zufolge umfasst der Deal rund eine Million TPUs, teilweise als direkter Hardware-Kauf und teilweise als Cloud-Miete über die Google Cloud Platform (GCP). Die Leistungsaufnahme dieser Infrastruktur soll mehr als ein Gigawatt betragen.
Die Auswirkungen auf den Markt sind bereits spürbar. Laut SemiAnalysis konnte OpenAI allein durch die glaubhafte Drohung, auf TPUs oder Alternativen umzusteigen, rund 30 Prozent Rabatt auf seine Nvidia-Flotte aushandeln. „Je mehr TPUs ihr kauft, desto mehr Nvidia-Investitionsausgaben spart ihr“, schreiben die Analysten Dylan Patel, Myron Xie und Daniel Nishball in ironischer Anspielung auf den legendären Satz von Nvidia-CEO Jensen Huang.
TPUs etablieren sich als GPU-Alternative
Die TPUs haben sich als ernstzunehmende Alternative etabliert, was der Einsatz in der Praxis zeigt: Zwei der derzeit leistungsfähigsten KI-Modelle, Googles Gemini 3 und Anthropics Claude 4.5 Opus, nutzen überwiegend Google TPUs und Amazons Trainium-Chips. Gemini 3 wurde vollständig auf TPUs trainiert.
Technisch schließt die TPUv7 „Ironwood“ laut SemiAnalysis nahezu vollständig zu Nvidias Blackwell-Generation auf, sowohl hinsichtlich der theoretischen Rechenleistung (FLOPs) als auch der Speicherbandbreite. Der entscheidende Vorteil liegt jedoch in den Kosten.
Die Gesamtbetriebskosten (TCO) pro Chip liegen für Google rund 44 Prozent niedriger als bei einem vergleichbaren Nvidia-GB200-System. Selbst für externe Kunden wie Anthropic, an die Google die Chips mit Marge weiterverkauft, könnten die Kosten pro effektiv genutzter Recheneinheit laut dem Modell der Analysten 30 bis 50 Prozent unter denen von Nvidia-Systemen liegen.
Dies gilt insbesondere für Teams, die ihre Software gut optimieren. Googles TPU-System kann bis zu 9.216 Chips in einem einzigen, eng vernetzten Verbund koppeln. Dadurch lassen sich sehr große KI-Trainings einfacher verteilen als bei typischen Nvidia-Systemen, die meist 64 bis 72 Chips eng zusammenschalten.
Angriff auf das CUDA-Monopol
Ein Hindernis für die Verbreitung von TPUs war bisher die Software. Nvidias CUDA-Plattform gilt als Standard. Google investiert nun erheblich, um diese Hürde abzubauen. Laut dem Bericht arbeitet der Konzern an einer nativen Unterstützung für das beliebte Framework PyTorch sowie an der Integration in Inferenz-Bibliotheken wie vLLM.
Das Ziel ist es, TPUs als Alternative nutzbar zu machen, ohne dass Entwickler ihre gesamte Werkzeugkette umstellen müssen. Allerdings bleibt der Kern des TPU-Software-Stacks (XLA-Compiler) proprietär, was SemiAnalysis als verpasste Chance für eine schnellere Adaption durch die Open-Source-Community wertet.
Um die physische Infrastruktur für die riesigen Mengen an Chips bereitzustellen, nutzt Google neue Finanzierungsmodelle. Der Konzern arbeitet mit „Neoclouds“ wie Fluidstack und Krypto-Minern wie TeraWulf zusammen. Dabei fungiert Google oft als finanzieller Rückhalt: Fällt der Betreiber aus, garantiert Google die Mietzahlungen. Dies ermöglicht den schnellen Umbau vorhandener Rechenzentren aus dem Krypto-Sektor für KI-Anwendungen.
Nvidias Antwort steht bevor – und könnte Google wieder abhängen
Angesichts der aktuellen Erfolge von Google steht Nvidia technologisch unter Druck. Als Antwort setzt die nächste Nvidia-Generation ‚Vera Rubin‘ (voraussichtlich 2026/2027) auf aggressivere Designentscheidungen wie HBM4-Speicher und extrem hohe Bandbreiten.
Googles geplante Antwort, die TPUv8, verfolgt laut SemiAnalysis eine zweigleisige Strategie: Sie soll in zwei Varianten erscheinen – eine Version entwickelt mit dem langjährigen Partner Broadcom (Codename „Sunfish“) und eine weitere mit MediaTek (Codename „Zebrafish“). Doch trotz dieser Diversifizierung wirkt das Design im direkten Vergleich fast schon zaghaft. Das Projekt leidet laut den Analysten unter Verzögerungen und setzt auf eine konservativere Architektur, die weder TSMCs 2nm-Prozess noch HBM4 so aggressiv nutzt wie die Konkurrenz.
Das Risiko für den Suchmaschinenriesen ist hoch: Sollten Nvidias kurzfristige Leistungssteigerungen bei Rubin aufgehen, könnte der aktuelle Kostenvorteil der TPUs vollständig verschwinden. SemiAnalysis warnt sogar vor einem Szenario, in dem Nvidias Rubin-Systeme („Kyber Rack“) selbst für Googles interne Workloads wirtschaftlicher wären als die eigene TPUv8.
„Google hat seine Karten gezeigt“, schreibt SemiAnalysis. Der Konzern habe mit der TPUv7 stark vorgelegt und Nvidia preislich unter Druck gesetzt. Nun müsse Nvidia liefern. Gelingt dem Marktführer die fehlerfreie Exekution seiner Roadmap, bleibt er an der Spitze. Strauchelt Nvidia jedoch bei der Leistung oder dem Zeitplan von Rubin, könnte der Thron ernsthaft wackeln.
Bildquelle: Unsplash / Sabbir Hossain