Nach dem verhaltenen Start der Vision Pro zeichnet sich ein Kurswechsel in Apples Wearable-Strategie ab: Wie aus Berichten von Bloomberg-Journalist Mark Gurman hervorgeht, arbeitet Apple an eigenen Smart Glasses, die voraussichtlich 2027 auf den Markt kommen könnten. Eine Vorstellung ist bereits für Ende dieses Jahres im Gespräch. Das spannendste Detail jedoch: Die Geräte werden keine integrierten Displays besitzen.
Vier Designs für den Massenmarkt
Laut Gurman experimentiert Apple aktuell mit vier unterschiedlichen Rahmenformen, um die optimale Balance aus Tragekomfort und Technologie zu finden. Die zur Debatte stehenden Designs umfassen:
- Einen großen, rechteckigen Rahmen
- Einen schlankeren, rechteckigen Rahmen (angelehnt an die Brillen von CEO Tim Cook)
- Einen großen, ovalen oder runden Rahmen
- Einen kleineren, ovalen oder runden Rahmen
Zudem denkt Apple offenbar über verschiedene Farbvarianten nach, darunter Schwarz, Ozeanblau und Hellbraun. Diese Vielfalt an Formen und Farben ist ein deutliches Signal: Apple positioniert die Smart Glasses nicht als Nischengerät für Tech-Enthusiasten, sondern als modisches Accessoire für den Massenmarkt. Der Ansatz erinnert stark an die Strategie von Meta, die mit den Ray-Ban Smart Glasses genau diese Nische besetzen konnte.
Ein strategischer Rückzug oder ein kluger Schachzug?
In gewisser Weise markieren diese Smart Glasses einen Schritt zurück von Apples einst hochgesteckten Zielen. Nach den oft verschobenen Roadmaps und der eher lauwarmen Aufnahme der Vision Pro scheint Apple erkannt zu haben, dass der Markt für Mixed-Reality-Headsets noch nicht reif für den Durchbruch ist. Die Vision Pro ist ein technologisches Meisterwerk, aber Gewicht, Preis und die soziale Isolation durch das visierte Display stehen einem Alltagseinsatz entgegen.
Die neuen Smart Glasses gehen einen fundamental anderen Weg. Sie verzichten komplett auf ein Display und konzentrieren sich auf Funktionen, die sich unsichtbar in den Alltag integrieren lassen. Nutzer sollen Fotos und Videos aufnehmen – Berichten zufolge testet Apple hierfür ovale Kameraobjektive –, Telefonate annehmen, Musik streamen und mit Siri interagieren können.
Das Siri-Problem wird zum Flaschenhals
Hier liegt jedoch der kritische Punkt der gesamten Produktstrategie. Die Meta Ray-Ban Glasses funktionieren überraschend gut, weil die zugrundeliegende KI-Sprachassistenz (Meta AI) schnelle, kontextbezogene und nützliche Antworten liefert. Bei Apple hingegen ruht die Hoffnung auf dem "lang erwarteten Siri-Upgrade". Die aktuelle Version von Siri ist bekanntermaßen oft frustrierend, besonders wenn es um komplexe Befehle oder Kontextverständnis geht. Wenn die Smart Glasses primär über Sprachsteuerung bedient werden, ist Siri nicht nur ein Feature – Siri ist das Gerät. Ein unterdurchschnittliches KI-Erlebnis würde den Nutzen der Brille sofort zunichtemachen.
Apple muss in den nächsten zwei Jahren massiv in die Infrastruktur von Apple Intelligence investieren, damit Siri auf dem Niveau aktueller LLM-basierter Assistenten agieren kann. Andernfalls drohen die Smart Glasses zum teuren Diktiergerät mit Kamera zu verkommen.
Fazit: Pragmatismus schlägt Vision
Apples Wandel von der ehrgeizigen AR-Vision hin zu pragmatischen, displaylosen Smart Glasses ist ein Zeichen von Realismus. Anstatt auf den perfekten Holodeck-Moment zu warten, setzt Apple nun auf Wearables, die man den ganzen Tag tragen kann, ohne aufzufallen. Wenn es Apple gelingt, das Design-Sortiment überzeugend umzusetzen und Siri rechtzeitig auf Vordermann zu bringen, könnten diese Glasses der erste wirklich erfolgreiche Wearable-Hit des Unternehmens abseits der Apple Watch werden. Der Kampf um unser Gesicht hat gerade erst begonnen – er wird nur nicht mehr im Visier-Display, sondern über Sprachbefehle ausgetragen.
Quelle: TechCrunch