Apple hat mit der Vorstellung des neuen M5-Chips einen bedeutenden Schritt in Richtung leistungsfähigerer KI-Anwendungen auf seinen Geräten gemacht. Der Chip verspricht eine drastische Beschleunigung für KI-Workloads auf MacBook Pro, iPad Pro und der Apple Vision Pro, was die Ausführung komplexer Modelle direkt auf dem Gerät ermöglicht.
Key Takeaways
- Der M5-Chip bietet eine viermal höhere GPU-Leistung für KI-Aufgaben im Vergleich zum Vorgänger M4.
- Jeder der zehn GPU-Kerne verfügt über einen dedizierten "Neural Accelerator".
- Eine verbesserte 16-Kern-Neural Engine und eine bis zu 15 Prozent schnellere CPU runden das Paket ab.
- Der Chip nutzt ein fortschrittliches 3-nm-Verfahren der dritten Generation.
- Erhöhte Speicherbandbreite und bis zu 32 GB Speicher ermöglichen die Ausführung größerer KI-Modelle lokal.
Revolutionäre KI-Leistung
Der neue M5-Chip von Apple ist darauf ausgelegt, die Art und Weise, wie KI-Anwendungen auf MacBooks, iPads und der Vision Pro funktionieren, grundlegend zu verändern. Apple gibt an, dass die GPU-Leistung für KI-Aufgaben mehr als viermal so hoch ist wie beim Vorgängermodell M4. Dies wird durch die Integration eines speziellen "Neural Accelerators" in jedem der zehn GPU-Kerne erreicht.
Verbesserte Kernkomponenten
Neben der verbesserten GPU-Leistung verfügt der M5-Chip über eine schnellere 16-Kern-Neural Engine, die speziell für KI-Berechnungen optimiert ist. Die CPU wurde ebenfalls aufgerüstet und bietet ein um bis zu 15 Prozent höheres Multithread-Tempo. Diese Kombination aus leistungsstärkeren Kernkomponenten verspricht eine signifikante Beschleunigung für bestehende und zukünftige KI-Anwendungen, einschließlich Apples eigener "Apple Intelligence"-Suite.
Fortschrittliche Technologie und Speicher
Der M5-Chip basiert auf einem fortschrittlichen 3-nm-Verfahren der dritten Generation. Er bietet eine gemeinsame Speicherbandbreite von 153 GB/s, was einer Steigerung von fast 30 Prozent entspricht. Mit Unterstützung für bis zu 32 GB Speicher können nun auch größere und komplexere KI-Modelle direkt auf dem Gerät ausgeführt werden, ohne auf Cloud-Ressourcen angewiesen zu sein. Entwickler haben über Core ML, Metal 4 und Tensor-APIs Zugriff auf diese neuen Beschleuniger, um das volle Potenzial des M5-Chips auszuschöpfen.