Google développe deux paires de lunettes connectées intégrant l’intelligence artificielle, dont le lancement est prévu pour 2026. La première version est pensée pour une assistance sans écran, avec des haut-parleurs, microphones et caméras intégrés, permettant d’interagir vocalement avec Gemini.

Les utilisateurs pourront prendre des photos grâce à la caméra intégrée, puis poser des questions à Gemini sur leur environnement afin d’obtenir une aide en temps réel.
Deux approches complémentaires pour l’assistance IA
La seconde paire de lunettes proposera les mêmes capacités d’IA, mais ajoutera un affichage directement dans les verres. Celui-ci pourra montrer des informations utiles comme des itinéraires étape par étape ou des sous-titres de traduction en direct.
Dans les deux cas, les lunettes se connecteront à un smartphone, sur lequel sera effectué le traitement principal. Elles fonctionneront sous Android XR, la plateforme de Google dédiée aux appareils portables et immersifs.
Des partenariats orientés design et confort
Google collabore avec Samsung pour le développement technique des lunettes. Le groupe travaille également avec Warby Parker et Gentle Monster, deux marques spécialisées dans la conception de lunettes, afin de proposer des modèles élégants, légers et confortables, conçus pour être portés toute la journée.
Une concurrence directe avec Meta et Apple
Ces lunettes connectées de Google viendront concurrencer les Ray-Ban Meta, ainsi que d’éventuels futurs produits d’Apple. Meta propose déjà des lunettes Ray-Ban et Oakley intégrant de l’IA, ainsi que des modèles Ray-Ban avec affichage dans les verres.
De leur côté, plusieurs rumeurs indiquent qu’Apple travaillerait également sur ses premières lunettes connectées à base d’IA, dont la présentation pourrait intervenir dès 2026.





Laisser un commentaire