C
Apple

Apples Smart Glasses 2027: Vier Designs, kein Display und der Strategiewechsel

Apple arbeitet an Smart Glasses für 2027. Statt eines Displays wie bei der Vision Pro setzt Apple auf Audio, Kamera und Siri – und testet vier Rahmenformen. Ein strategischer Schwenk.

CR
Codekiste Redaktion12. April 2026

Nach dem verhaltenen Start der Vision Pro zeichnet sich ein Kurswechsel in Apples Wearable-Strategie ab: Wie aus Berichten von Bloomberg-Journalist Mark Gurman hervorgeht, arbeitet Apple an eigenen Smart Glasses, die voraussichtlich 2027 auf den Markt kommen könnten. Eine Vorstellung ist bereits für Ende dieses Jahres im Gespräch. Das spannendste Detail jedoch: Die Geräte werden keine integrierten Displays besitzen.

Vier Designs für den Massenmarkt

Laut Gurman experimentiert Apple aktuell mit vier unterschiedlichen Rahmenformen, um die optimale Balance aus Tragekomfort und Technologie zu finden. Die zur Debatte stehenden Designs umfassen:

  • Einen großen, rechteckigen Rahmen
  • Einen schlankeren, rechteckigen Rahmen (angelehnt an die Brillen von CEO Tim Cook)
  • Einen großen, ovalen oder runden Rahmen
  • Einen kleineren, ovalen oder runden Rahmen

Zudem denkt Apple offenbar über verschiedene Farbvarianten nach, darunter Schwarz, Ozeanblau und Hellbraun. Diese Vielfalt an Formen und Farben ist ein deutliches Signal: Apple positioniert die Smart Glasses nicht als Nischengerät für Tech-Enthusiasten, sondern als modisches Accessoire für den Massenmarkt. Der Ansatz erinnert stark an die Strategie von Meta, die mit den Ray-Ban Smart Glasses genau diese Nische besetzen konnte.

Ein strategischer Rückzug oder ein kluger Schachzug?

In gewisser Weise markieren diese Smart Glasses einen Schritt zurück von Apples einst hochgesteckten Zielen. Nach den oft verschobenen Roadmaps und der eher lauwarmen Aufnahme der Vision Pro scheint Apple erkannt zu haben, dass der Markt für Mixed-Reality-Headsets noch nicht reif für den Durchbruch ist. Die Vision Pro ist ein technologisches Meisterwerk, aber Gewicht, Preis und die soziale Isolation durch das visierte Display stehen einem Alltagseinsatz entgegen.

Die neuen Smart Glasses gehen einen fundamental anderen Weg. Sie verzichten komplett auf ein Display und konzentrieren sich auf Funktionen, die sich unsichtbar in den Alltag integrieren lassen. Nutzer sollen Fotos und Videos aufnehmen – Berichten zufolge testet Apple hierfür ovale Kameraobjektive –, Telefonate annehmen, Musik streamen und mit Siri interagieren können.

Das Siri-Problem wird zum Flaschenhals

Hier liegt jedoch der kritische Punkt der gesamten Produktstrategie. Die Meta Ray-Ban Glasses funktionieren überraschend gut, weil die zugrundeliegende KI-Sprachassistenz (Meta AI) schnelle, kontextbezogene und nützliche Antworten liefert. Bei Apple hingegen ruht die Hoffnung auf dem "lang erwarteten Siri-Upgrade". Die aktuelle Version von Siri ist bekanntermaßen oft frustrierend, besonders wenn es um komplexe Befehle oder Kontextverständnis geht. Wenn die Smart Glasses primär über Sprachsteuerung bedient werden, ist Siri nicht nur ein Feature – Siri ist das Gerät. Ein unterdurchschnittliches KI-Erlebnis würde den Nutzen der Brille sofort zunichtemachen.

Apple muss in den nächsten zwei Jahren massiv in die Infrastruktur von Apple Intelligence investieren, damit Siri auf dem Niveau aktueller LLM-basierter Assistenten agieren kann. Andernfalls drohen die Smart Glasses zum teuren Diktiergerät mit Kamera zu verkommen.

Fazit: Pragmatismus schlägt Vision

Apples Wandel von der ehrgeizigen AR-Vision hin zu pragmatischen, displaylosen Smart Glasses ist ein Zeichen von Realismus. Anstatt auf den perfekten Holodeck-Moment zu warten, setzt Apple nun auf Wearables, die man den ganzen Tag tragen kann, ohne aufzufallen. Wenn es Apple gelingt, das Design-Sortiment überzeugend umzusetzen und Siri rechtzeitig auf Vordermann zu bringen, könnten diese Glasses der erste wirklich erfolgreiche Wearable-Hit des Unternehmens abseits der Apple Watch werden. Der Kampf um unser Gesicht hat gerade erst begonnen – er wird nur nicht mehr im Visier-Display, sondern über Sprachbefehle ausgetragen.

Quelle: TechCrunch

QUELLEN
TechCrunch AI
Pro-Feature

Melde dich an und werde Pro-Mitglied, um dieses Feature zu nutzen.

Anmelden
CR
Codekiste Redaktion

Automatisierte Content-Kuratierung für tech-news.

Kommentare

WEITERLESEN
Apple

Find My 2026: AirTag 2 dominiert, aber die Alternativen sind smarter

Apple

Nach 'Dope Thief': Brian Tyree Henry dreht neues Apple-Filmdrama

Apple

Saugnapf statt Gewicht: Löst Scosche das MagSafe-Problem auf dem Schreibtisch?