Intelligence artificielle

Un aperçu et des détails pour les lunettes connectées de Google qui sortiront en 2026

Google prépare son retour sur le marché des lunettes connectées avec une stratégie nettement plus réfléchie que celle des Google Glass, lancées il y a une décennie. Pour affronter Meta à partir de 2026, l’entreprise développe deux types de produits reposant sur l’intelligence artificielle : une gamme axée sur l’audio et une autre intégrant des écrans.

Cette approche est soutenue par des partenariats solides avec Samsung ainsi qu’avec des marques spécialisées comme Warby Parker et Gentle Monster. Les designs définitifs n’ont pas été dévoilés, mais Google veut permettre aux utilisateurs de trouver l’équilibre idéal entre style, légèreté et immersion.

Des prototypes

Lors d’une présentation à New York, plusieurs prototypes ont été testés par la presse. Ils reposent sur une architecture proche de celle des Ray-Ban Meta, avec la puissance de calcul déportée sur un smartphone. Cette solution permet d’obtenir des montures fines et légères, proches de lunettes classiques.

Deux configurations étaient proposées : un modèle monoculaire doté d’un écran unique dans le verre droit, et une version binoculaire intégrant un écran dans chaque verre, offrant une surface virtuelle plus large pour l’affichage en réalité augmentée.

L’intelligence artificielle Gemini se trouve au cœur de cette nouvelle génération d’usages. La traduction instantanée illustre bien ces possibilités, laissant le choix entre l’affichage de sous-titres dans les verres ou une utilisation uniquement audio.

L’intégration d’un écran se montre particulièrement utile pour la navigation : un simple regard vers le bas permet d’afficher une carte Google Maps en vue de dessus, accompagnée d’une boussole. L’IA générative est également mise à contribution grâce au modèle Nano Banana Pro, capable de modifier une photo et d’en montrer un aperçu directement dans les lunettes.

Parallèlement, Google poursuit son travail avec Xreal sur le Project Aura. Contrairement aux prototypes dépendants du smartphone, ce modèle fonctionne de manière autonome sous Android XR, comme le casque Galaxy XR de Samsung. Plus discret qu’un casque traditionnel, il impose toutefois l’usage d’une batterie externe constante. En échange, il propose un champ de vision immersif de 70 degrés et une interaction basée sur le suivi des mains, offrant une expérience plus naturelle et enveloppante.

Partager
Publié par
Steve