Selon plusieurs sources concordantes, notamment de MacRumors et Bloomberg, Apple aurait décidé d'accélérer le développement de ses lunettes connectées. Pour se donner les moyens de ses ambitions, la firme de Cupertino aurait même mis en pause les travaux sur la prochaine génération de son casque Vision Pro. Il faut dire que c'est un produit de niche, au succès commercial mitigé jusqu'ici.

Ici, l'objectif semble clair : couper l'herbe sous le pied de Meta et de ses populaires Ray-Ban en proposant un produit plus grand public dès 2026. Loin de la réalité augmentée complexe du Vision Pro, ces lunettes seraient taillées pour le quotidien, avec une bonne dose d'intelligence artificielle.

Des fonctionnalités "classiques", sans écran

Que les choses soient claires : il ne s'agira pas d'un mini Vision Pro. La première génération de ces lunettes ferait l'impasse sur un écran intégré, contrairement aux dernières Ray-Ban Meta Display. L'approche d'Apple serait plus discrète, se concentrant sur les fonctionnalités audio et d'intelligence artificielle. Les utilisateurs pourront, a priori, prendre des photos, enregistrer des vidéos, écouter de la musique ou des podcasts, passer des appels et envoyer des messages. L'accent serait également mis sur l'assistance contextuelle : obtenir un itinéraire, poser une question sur ce que l'on voit ou demander la description d'un lieu.

Siri, le cerveau de l'opération

Le nerf de la guerre pour ces lunettes comme celles-ci, c'est l'intelligence de leur assistant. Ici, le contrôle passerait quasi exclusivement par la voix. En clair, cela signifie que le succès du produit repose entièrement sur les épaules d'un Siri nouvelle génération. Apple travaille justement à une refonte complète de son assistant vocal, basée sur des modèles de langage étendus (LLM), prévue pour le printemps 2026.

Ce Siri "boosté", pensé pour être capable de rivaliser avec ChatGPT ou Gemini, aurait pour objectif de permettre des interactions beaucoup plus fluide avec le monde. Grâce aux caméras intégrées, il pourrait décrire votre environnement, identifier des plantes ou des monuments, traduire une conversation en temps réel, vous aider à retrouver vos clés ou même vous guider pas à pas dans une tâche manuelle.

L’iPhone, binôme indispensable

Ces lunettes ne seront pas un appareil autonome. Comme l'Apple Watch à ses débuts, elles devraient nécessiter une connexion avec un iPhone pour fonctionner. Elles devraient embarquer une puce Apple dédiée, inspirée de celle de la montre connectée. Mais l'essentiel des calculs, notamment pour les tâches d'intelligence artificielle, serait déporté sur le smartphone. Ce choix stratégique a un double avantage : il permet d'alléger considérablement les lunettes et, surtout, de préserver leur autonomie, un enjeu crucial pour un appareil porté toute la journée.

Un accessoire de mode avant tout ?

Oubliez les montures épaisses et l'allure de prototype technologique un peu futuriste. À l'image des premières Apple Watch, l'Apple Glass serait plutôt pensé comme un accessoire de mode. Apple ne compte pas lésiner sur la personnalisation : plusieurs matériaux pour les montures et les branches, ainsi qu'un large choix de couleurs, de formes et de tailles seraient prévus dès le lancement.

Toutefois, le défi technique reste de taille, puisqu'il faudra intégrer une batterie, une puce et plusieurs caméras dans ce design sûrement très fin. La firme à la pomme semble vouloir éviter l'écueil des premières versions des lunettes connectées, dont l'épaisseur et la lourdeur avaient fait débat.

Enfin, la question du calendrier et du prix se pose évidemment. Les dernières rumeurs évoquent une présentation officielle fin 2026, pour une commercialisation début 2027. Côté tarif, aucun chiffre n'a encore fuité. Les Ray-Ban Meta démarrent à 380 dollars, la firme de Cupertino pourrait donc être tentée de jouer dans la même cour.