Google a dévoilé un nouveau concept de lunettes connectées lors de la conférence I/O 2025. Les lunettes Android XR intègrent Gemini et peuvent se synchroniser avec un téléphone Android pour accéder à des applications. Elles sont équipées de haut-parleurs et d'un écran intralentille en option pour consulter des informations en privé. La démo a mis en avant la traduction en temps réel des langues, illustrant le potentiel d'une communication sans frontières linguistiques. Les lunettes connectées Android XR font suite à l'échec cuisant du matériel de réalité augmentée Google Glass et se positionnent comme un concurrent des lunettes Ray-Ban et Orion de Meta.XR est l'acronyme de « extended reality » (réalité étendue). Il s'agit d'un terme générique qui englobe toutes les technologies qui mélangent les mondes réel et virtuel, notamment la réalité virtuelle, la réalité augmentée et la réalité mixte. Android XR est un système d'exploitation pour les appareils de réalité étendue qui utilisent ces technologies. Il fournit à ces appareils l'interface utilisateur, la possibilité d'accéder aux applications courantes et à l'IA Gemini.
Lors de l'événement Google I/O 2025, Google a présenté un prototype de lunettes de réalité étendue fonctionnant sous Android XR et intégrant son assistant d'IA Gemini. Ce projet marque une étape importante dans la vision de Google pour l'avenir des technologies/appareils électroniques portables.
Comme l'a expliqué Google, Gemini sur ces appareils peut agir comme un assistant (ou un guide) qui partage votre point de vue et peut vous aider lorsque vous commencez à parler. Et comme vous n'avez pas besoin d'appuyer sur les boutons des lunettes ou de sortir votre smartphone pour démarrer une interaction, vous n'aurez pas à interrompre ce que vous faites, que ce soit dans le monde réel ou virtuel. Pour l'instant, il y a très peu de détails sur les lunettes.
Caractéristiques et fonctionnalités intégrées aux lunettes Android XR
« En associant ces lunettes à Gemini, elles voient et entendent ce que vous faites. Elles comprennent donc votre contexte, se souviennent de ce qui est important pour vous et peuvent vous aider tout au long de la journée », a écrit Google dans un billet de blogue. Le point fort de la présentation des lunettes a été la tentative de traduction en direct. Deux employés de Google, Shahram Izadi et Nishtha Bhatia, ont échangé dans différentes langues (farsi et hindi).
Pendant que Shahram Izadi et Nishtha Bhatia se parlaient en farsi et en hindi, leurs lunettes Android XR assuraient une traduction en temps réel vers l'anglais. Cependant, tout ne s'est pas bien passé. Un petit bogue technique est survenu quelques secondes après le début. La démo a été victime de la malédiction de l'IA qui se comporte mal pendant un spectacle en direct, mais il y a eu un bref moment où chacune de leurs lunettes a fonctionné comme prévu.
Cela a illustré le potentiel d’une communication sans frontières linguistiques. Outre cette démonstration, Nishtha Bhatia a également montré comment l'assistant Gemini pouvait fonctionner avec les lunettes Android XR de Google, en lui posant des questions sur les images qu'elle voyait dans les coulisses du théâtre et en lui demandant des informations sur le café où elle s'était rendue avant l'événement. Voici les autres caractéristiques des lunettes de Google :
- les lunettes sont équipées de micros pour capturer l'environnement et les conversations ;
- elles sont équipées de caméras pour prendre des photos, des vidéos, etc.
- elles sont équipées de haut-parleurs intégrés pour le son contextuel ;
- un écran intégré dans le verre droit permet de consulter des informations discrètes en temps réel ;
- Gemini peut traduire des conversations en direct, répondre à des commandes vocales, lire ou envoyer des messages ;
- Gemini est également capable de fournir des instructions GPS visibles directement dans le champ de vision.
Limitations et défis identifiés par les premiers testeurs des lunettes
- champ de vision restreint : certains testeurs ont noté que le champ de vision offert par l'affichage est limité, ce qui peut restreindre l'immersion dans certaines applications ;
- temps de démonstration court : les sessions de test étaient brèves, ne permettant pas aux journalistes d'explorer pleinement les capacités des lunettes ;
- fonctionnalités encore en développement : certaines fonctionnalités, comme la traduction en temps réel, ont montré des signes de latence ou de limitations lors des démonstrations.
Et pour ceux qui se souviennent des anciennes lunettes Google Glass peu élégantes, cette itération semble plus axée sur la portabilité et le style dans le monde réel. Google travaille...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.