Nvidia Rubin CPX KI-Chip

Nvidia enthüllt Rubin CPX: Ein spezialisierter KI-Chip für massive Kontextverarbeitung

Nvidia hat mit dem Rubin CPX einen neuen, spezialisierten KI-Chip angekündigt, der darauf abzielt, die rechenintensive Analysephase in KI-Modellen zu optimieren. Dieser Chip, der Ende 2026 auf den Markt kommen soll, ist speziell für Aufgaben konzipiert, die riesige Datenmengen und "massive-context AI" erfordern, wie die Analyse ganzer Codebasen oder die Videogenerierung.

Key Takeaways

  • Nvidia kündigt den Rubin CPX an, einen spezialisierten KI-Chip für die Analysephase von KI-Modellen.
  • Der Chip soll Ende 2026 verfügbar sein und für "massive-context AI" entwickelt.
  • Er basiert auf Nvidias Strategie der "disaggregated inference" und soll die Leistung bei Aufgaben mit Millionen von Tokens verbessern.
  • Erste Partner wie Cursor und Runway evaluieren die Technologie bereits.

Ein neuer Ansatz für KI-Verarbeitung

KI-Modelle durchlaufen typischerweise zwei Phasen: eine rechenintensive Analyse- oder Kontextphase, gefolgt von einer Generierungsphase. Nvidia hat erkannt, dass diese Phasen unterschiedliche Hardware-Anforderungen haben. Der Rubin CPX ist Nvidias Antwort darauf, indem er speziell für die anspruchsvolle Analysephase entwickelt wurde.

Rubin CPX: Leistung und Spezifikationen

Der Rubin CPX, ein Derivat der für 2025 geplanten Rubin-Produktlinie, wird als Einsteckkarte oder als eigenständiger Computer für Rechenzentren angeboten. Er soll auf einem monolithischen Die-Design basieren und beeindruckende 30 PetaFLOPs an NVFP4-Rechenleistung sowie 128 GB GDDR7-Speicher bieten. Eine dreifache Beschleunigung für Attention-Layer im Vergleich zur Blackwell-Architektur wird ebenfalls erwartet.

Blackwell-Ergebnisse untermauern die Strategie

Nvidia stützt seinen neuen Ansatz auf die jüngsten Benchmark-Ergebnisse der Blackwell-Ultra-Architektur. In MLPerf Inference v5.1 wurden neue Rekorde aufgestellt, wobei eine bis zu 45 % höhere Leistung pro GPU im Vergleich zur Standard-Blackwell-Architektur erzielt wurde. Ein Software-Ansatz der "disaggregated inference", bei dem Kontext- und Generierungsphasen auf verschiedene GPUs aufgeteilt werden, steigerte den Durchsatz pro GPU bereits um fast das 1,5-fache. Der Rubin CPX soll diese Software-Optimierung nun durch dedizierte Hardware-Unterstützung weiter vorantreiben.

Partner und Anwendungsfälle

Mehrere Unternehmen, darunter Cursor (ein Code-Editor), Runway (Video-KI) und Magic (KI-Agenten), evaluieren die Rubin CPX-Technologie bereits für ihre spezifischen Anwendungsfälle. Dies unterstreicht das Potenzial des neuen Chips, die Verarbeitung von KI-Aufgaben mit sehr großen Kontextfenstern signifikant zu verbessern.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like