Lors de sa conférence annuelle I/O, Google a présenté des lunettes XR fonctionnant sous Android, capables de traduire les langues en temps réel. Cette démonstration marque une avancée notable dans le domaine de la réalité augmentée appliquée à la communication.
Tl;dr
- Lunettes connectées Google : nouveau design et IA Gemini.
- Partenariat avec Samsung, Gentle Monster et Warby Parker.
- Démonstration traducteur IA, investissement jusqu’à 150 millions $.
Des lunettes connectées, version revisitée par Google
Dix ans après le lancement contesté des premières Google Glass, la firme de Mountain View surprend lors de sa conférence I/O 2025 en dévoilant une nouvelle génération de lunettes intelligentes. Cette fois, Google s’associe étroitement à Samsung pour intégrer l’IA maison, baptisée Gemini, au cœur de son dispositif « Glasses with Android XR ». L’objectif : rendre l’expérience plus fluide et pertinente au quotidien, tout en réconciliant technologie et esthétique.
Nouveaux partenaires, nouveaux enjeux financiers
Si la silhouette des anciennes Google Glass évoquait davantage le laboratoire que la rue, ce nouveau modèle mise clairement sur le style. Deux acteurs majeurs du design de lunettes, Gentle Monster et Warby Parker, se joignent au projet dès ses débuts. Un signal fort envoyé par Google : la société engage jusqu’à 150 millions de dollars, répartis entre développement produit et participation potentielle dans le capital de Warby Parker.
Des démonstrations prometteuses mais encore perfectibles
Sur scène, lors d’une démonstration très attendue, les ingénieurs Shahram Izadi et Nishtha Bhatia ont tenté un exercice aussi ambitieux que risqué : une traduction simultanée grâce aux XR frames. Parlant respectivement le farsi et l’hindi, ils ont pu voir s’afficher les traductions en anglais directement sur leurs verres — même si, il faut bien l’avouer, l’IA n’a pas été irréprochable en direct. Malgré quelques hésitations techniques, une séquence brève a illustré le potentiel du système.
En complément, Nishtha Bhatia a exploré les capacités du nouvel assistant Gemini intégré aux lunettes : questions posées à propos d’images aperçues en coulisses ou recherche instantanée d’informations sur un café fréquenté avant la présentation – autant d’usages qui témoignent de la promesse d’une expérience augmentée dans la vie courante.
L’avenir du wearable selon Google ?
Entre ambition technologique renouvelée et virage stylistique assumé, ces nouvelles lunettes connectées marquent un tournant pour le secteur des wearables. Pour ceux qui avaient oublié les débuts balbutiants des premiers modèles, ce retour aux sources — avec un accent mis sur l’intégration transparente dans notre quotidien — pourrait bien changer la donne… à condition que l’IA tienne ses promesses sur scène comme en dehors.
Source link