Das KI-Startup Thinking Machines, gegründet von der ehemaligen OpenAI-CTO Mira Murati, hat mit Tinker eine neue Trainings-API für Sprachmodelle vorgestellt. Ziel ist es, die Entwicklung eigener Modelle auf Open-Source-Basis zu vereinfachen, insbesondere für Teams mit begrenzten Rechenressourcen. Die API richtet sich an Forschende und Entwickler, die eigene Modelle trainieren oder feinjustieren möchten, ohne sich um die zugrunde liegende Infrastruktur kümmern zu müssen.
Key Takeaways
- Tinker simplifies the training and fine-tuning of open-source language models.
- It targets researchers and developers lacking extensive computational resources.
- The API supports various open-weight models from Meta and Alibaba.
- It utilizes LoRA technology for efficient parallel fine-tuning.
- A free beta phase is currently available, with a usage-based pricing model to follow.
Tinker: A New Era for Open-Source AI Training
Tinker wurde entwickelt, um die Hürden für die Entwicklung eigener KI-Modelle auf Open-Source-Basis zu senken. Die API ermöglicht es Forschenden und Entwicklern, ihre Modelle auf offenen Gewichten zu trainieren oder feinabzustimmen, ohne sich um die komplexe Infrastruktur kümmern zu müssen. "Mehr Menschen Forschung mit den neuesten Sprachmodellen zu ermöglichen", ist das erklärte Ziel des Unternehmens.
Supported Models and Infrastructure
Zum Start unterstützt Tinker eine Reihe von Open-Weight-Modellen von Meta (Llama) und Alibaba (Qwen), einschließlich größerer Modelle wie Qwen-235B-A22B. Der Wechsel zwischen diesen Modellen ist durch eine einfache Änderung im Code möglich. Tinker fungiert als verwalteter Dienst, der auf den internen Rechenclustern des Unternehmens läuft. Dies übernimmt Aufgaben wie Ressourcenmanagement, Fehlertoleranz und Scheduling, sodass Nutzer Trainingsläufe sofort starten können.
LoRA and the Tinker Cookbook
Die zugrunde liegende Technologie basiert auf LoRA (Low-Rank Adaptation). Dieses Verfahren ermöglicht es, mehrere Fine-Tuning-Prozesse parallel auf derselben Hardware auszuführen. Dadurch können mehrere Fine-Tuning-Läufe denselben Compute-Pool nutzen, was zu Kosteneinsparungen führen soll. Ergänzt wird die API durch das offene "Tinker Cookbook", eine Bibliothek mit Implementierungen typischer Post-Training-Methoden, die direkt auf der Tinker-API läuft und helfen soll, häufige Fehler beim Fine-Tuning zu vermeiden.
Beta Phase and Future Pricing
Tinker befindet sich derzeit in einer geschlossenen Beta-Phase. Interessierte können sich über eine Warteliste anmelden. Die Nutzung ist zunächst kostenlos. Ein nutzungsbasiertes Preismodell wird in den kommenden Wochen erwartet.
Strategic Implications
Mira Muratis Entscheidung, nach ihrem Weggang von OpenAI eine Fine-Tuning-API zu lancieren, deutet auf eine strategische Ausrichtung hin. Sie und ihr Team scheinen darauf zu setzen, dass feinabgestimmte Open-Weight-Modelle Unternehmen mittelfristig mehr Flexibilität und wirtschaftlichen Nutzen bieten als proprietäre Spitzenmodelle. Diese Entscheidung unterstreicht die wachsende Bedeutung von Open-Source-KI und die Notwendigkeit zugänglicher Werkzeuge für deren Weiterentwicklung.