Meta plant mit seinen neuen Ray-Ban Display-Brillen eine Revolution im Alltag. Das Unternehmen setzt verstärkt auf Künstliche Intelligenz als zentrale Schnittstelle und strebt an, das traditionelle App-Prinzip abzulösen. Die Brillen, die ab dem 30. September für 799 Dollar erhältlich sein werden, integrieren ein Display im rechten Glas und bieten vielfältige Funktionen.
Key Takeaways
- Meta’s neue Ray-Ban Display-Brillen sollen das Smartphone ersetzen.
- KI wird zur zentralen Schnittstelle, um das App-Prinzip zu überwinden.
- Die Brillen bieten ein integriertes Display mit vielfältigen Informations- und Kommunikationsfunktionen.
- Die Steuerung erfolgt über ein "Neural Band" am Handgelenk, das Gesten erkennt.
- Langfristig plant Meta vollwertige AR-Brillen für 2027.
Die neue Ära der KI-Brillen
Meta hat auf seiner Connect 2025 Konferenz die Ray-Ban Display-Brillen vorgestellt, die mit einem integrierten Display im rechten Glas ausgestattet sind. Diese Brillen, die ab dem 30. September für 799 US-Dollar verkauft werden, sollen die Basis für Metas eigenes Ökosystem bilden. Das Display liefert Informationen wie Textnachrichten, Navigationshinweise, Musiksteuerung und Ergebnisse von Metas KI-Dienst direkt ins Sichtfeld. Auch Videoanrufe mit Gesprächsperspektive und Live-Untertitel mit Übersetzungen sind möglich. Das Display bietet ein Sichtfeld von 20 Grad bei 600 x 600 Pixeln und eine Helligkeit von bis zu 5.000 Nits.
Weg von Apps, hin zu KI
Metas Ziel ist es, den Alltag nicht mehr über eine Vielzahl von Apps, sondern direkt über KI zu organisieren. CTO Andrew Bosworth sieht KI als "extrem gute Lösung" für viele Aufgaben, die derzeit von Apps übernommen werden. Anstelle eines eigenen App-Stores denkt Meta langfristig darüber nach, Apps überflüssig zu machen. Dies könnte Metas Chance sein, nach gescheiterten Smartphone-Versuchen in einem Markt Fuß zu fassen, der seit fast 20 Jahren von Apple und Google dominiert wird.
Das Feature "Live AI", das in den kommenden Monaten ausgerollt werden soll, zeigt, wie KI in der Brille während Gesprächen Lösungsvorschläge, relevante Informationen aus früheren Unterhaltungen und Nachrichtenentwürfe liefern kann. Dies würde bedeuten, dass Nutzer ihre digitalen Erinnerungen bei Meta speichern und sich stärker an dessen Ökosystem binden.
"Neural Band" zur Steuerung
Die Steuerung der Brillen erfolgt hauptsächlich über das "Neural Band", ein Armband, das Handgelenksgesten erkennt. Nutzer können durch Fingerbewegungen Elemente auswählen oder mit einer Handdrehung die Lautstärke ändern. Eine Sprach-KI kann per Fingertipp aktiviert werden. Zusätzliche Funktionen, wie das Schreiben in die Luft, sollen noch in diesem Jahr folgen.
Die Brille selbst bietet eine Akkulaufzeit von etwa sechs Stunden, die durch das Ladeetui viermal verlängert werden kann. Die Kamera mit 12 Megapixeln und 1080p-Video ist jedoch hinter den neuen Display-losen Ray-Ban-Modellen und der Oakley Vanguard-Brille zurück, die in 3K aufzeichnen und längere Akkulaufzeiten bieten.
Der Weg zur AR
Parallel dazu arbeitet Meta daran, sein Metaverse-Angebot Horizon Worlds attraktiver zu gestalten. Die neue Horizon Engine soll bessere Grafik, höhere Leistung und mehr gleichzeitige Nutzer ermöglichen. Mit dem "Horizon Studio" können Creator eigene VR-Welten entwerfen, unterstützt durch generative KI für Texturen und Audio. Ein geplanter KI-Assistent soll Entwicklern zukünftig Änderungen per Sprachbefehl ermöglichen.
Die VR- und die neuen Display-Brillen gelten als Zwischenschritte auf dem Weg zu vollwertigen AR-Brillen, die für 2027 geplant sind. Diese Technologie ist auch zentral für die Brillen, die Meta gemeinsam mit Anduril für die US-Armee entwickelt, um das IVAS-Programm von Microsoft zu verbessern. Die Kooperation bringt Palmer Luckey, Gründer von Anduril und dem einst von Meta übernommenen Oculus VR, wieder mit Mark Zuckerberg zusammen.