Eine Million Trainium3-Chips: AWS skaliert KI-Infrastruktur massiv

Eine Million Trainium3-Chips: AWS skaliert KI-Infrastruktur massiv

„Eine massive Skalierung durch proprietäre Hardware ist unser Ziel“, verlautbarte ein Sprecher von Amazon Web Services (AWS) auf der re:Invent 2025 in KI-Snack. Das Unternehmen intensiviert seine Bestrebungen, technologisch aufzuholen. Dies geschieht durch die Einführung aggressiv bepreister Nova-2-Modelle und die Entwicklung von KI-Assistenten hin zu vollwertigen, autonomen „Mitarbeitern“.

AWS präsentiert dritte Generation eigener KI-Beschleuniger

Zur Reduktion der Abhängigkeit von Nvidia und zur Senkung der Betriebskosten für KI-Anwendungen hat AWS die dritte Generation seiner eigens entwickelten KI-Beschleuniger eingeführt. Der Trainium3 UltraServer wird im fortschrittlichen 3-Nanometer-Verfahren hergestellt. Er soll im Vergleich zu seinem Vorgängermodell eine vierfache Steigerung der Geschwindigkeit und Speicherkapazität aufweisen. Gleichzeitig wird eine um 40 Prozent gesteigerte Energieeffizienz in Aussicht gestellt.

Skalierung mit bis zu einer Million Chips

Die zentrale Ankündigung betrifft die enorme Skalierbarkeit: AWS bietet nun die Möglichkeit, Cluster von bis zu einer Million Trainium3-Chips zu konfigurieren. Unternehmen wie Anthropic nutzen diese Infrastruktur bereits. Diese Entwicklung unterstreicht das Bestreben von Amazon, eine führende Rolle in der Bereitstellung von Hochleistungs-KI-Ressourcen einzunehmen und die technologischen Grundlagen für zukünftige KI-Anwendungen zu schaffen.

Bildquelle: Christian Wiediger auf Unsplash

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like