OpenAI plant, dass die bevorstehende ChatGPT-Hardware hauptsächlich durch Sprachinteraktion gesteuert wird. Um dies zu erreichen, konzentriert sich das Unternehmen auf die Verbesserung seiner Audio-KI-Modelle, wie von The Information berichtet. In den letzten zwei Monaten hat OpenAI mehrere Teams gebündelt, um die Audio-Modelle zu optimieren.
Aktuelle und ehemalige Mitarbeiter weisen darauf hin, dass die Audio-Modelle in Bezug auf Genauigkeit und Antwortgeschwindigkeit hinter den textbasierten Modellen zurückbleiben. Eine neue Architektur für die Audio-Modelle soll es ermöglichen, natürlicher und emotionaler zu klingen, präzisere Antworten zu liefern und gleichzeitig eine interaktive Kommunikation mit den Nutzern zu ermöglichen. Die Veröffentlichung dieser Fortschritte ist für das erste Quartal 2026 anberaumt. Kundan Kumar, ein Forscher, der von Character.AI angeworben wurde, führt die Entwicklungsbemühungen.
Die Einführung der eigentlichen Hardware könnte jedoch noch einige Zeit in Anspruch nehmen. OpenAI plant offenbar mehrere Geräte, darunter innovative Brillen und einen intelligenten Lautsprecher ohne Bildschirm. Für die Entwicklung dieser Technologien erwarb OpenAI im vergangenen Jahr die Firma io des ehemaligen Apple-Designers Jony Ive für nahezu 6,5 Milliarden Dollar. Hinter den Hardware-Plänen steckt die umfassende Vision, einen „Super-KI-Assistenten“ zu etablieren, der im Alltag eine vergleichbare Präsenz wie das Smartphone einnehmen soll.