Google épate l’auditoire à la conférence I/O avec des lunettes de traduction en direct
Google épate l’auditoire à la conférence I/O avec des lunettes de traduction en direct

Oubliez les Google Glass. Google a des lunettes de traduction instantanée
Oui, vous avez bien entendu. Lors de la Google I/O 2022, Google a enfin époustouflé les spectateurs avec des lunettes qui traduisent littéralement ce que quelqu’un vous dit devant vos yeux – à condition que vous portiez les lunettes, bien sûr.
Ces lunettes ont l’air tout à fait normales, semblent fonctionner sans l’aide d’un téléphone et font presque oublier les Google Glass.
En réalité, on ne sait pas grand-chose de ces lunettes au-delà de la courte démonstration vidéo, que Google a présentée à la fin d’un événement de près de deux heures – un moment « one more thing » à la Steve Job.
Les lunettes utilisent la réalité augmentée et l’intelligence artificielle (et éventuellement des caméras et des microphones intégrés) pour voir quelqu’un vous parler, entendre ce qu’il dit, le traduire et afficher la traduction en direct sur les écrans translucides intégrés à la monture des lunettes.
« La langue est tellement fondamentale pour communiquer les uns avec les autres », a expliqué Sundar Pichai, le PDG de Google, mais il a fait remarquer qu’essayer de suivre quelqu’un qui parle une autre langue « peut être un véritable défi. »

Le POV (Point of View) des lunettes Google IO
Le prototype de lunettes (heureusement, Google ne les a pas appelées « Google Glass 3 ») utilise les avancées de Google en matière de traduction et de transcription pour délivrer des mots traduits « dans votre ligne de vue », a expliqué Sundar Pichai.
Dans la vidéo, une jeune femme explique que sa mère parle mandarin et qu’elle parle anglais. Sa mère la comprend mais ne peut pas lui répondre en anglais.
La jeune femme enfile les lunettes noires à monture en corne et voit immédiatement ce que dit le chercheur, transcrit en lettres anglaises jaunes sur un écran. Il est vrai que nous voyons une superposition de ces images dans la vidéo et non ce que la femme voit réellement.
Ce qui est clair, en revanche, c’est que personne n’est obligé, comme c’était le cas avec les Google Glass, de regarder vers le haut pour voir un écran minuscule bizarrement placé. Le prototype permet aux utilisateurs de regarder directement le haut-parleur, de sorte que les mots sont superposés. Dans un segment, nous voyons une image en point de vue de la traduction en cours. Là encore, il s’agit de l’illustration de Google de la vue du prototype. Nous ne saurons pas comment ils fonctionnent réellement avant que le prototype ne quitte le laboratoire.
Google n’a proposé aucun calendrier pour l’achèvement et la livraison de ce projet. Nous n’avons même pas de nom. Néanmoins, voir des lunettes de réalité augmentée d’apparence normale qui pourraient résoudre un problème très concret (elles pourraient traduire le langage des signes pour quelqu’un qui ne le connaît pas ou montrer des mots aux malentendants) est passionnant.
Comme le fait remarquer un chercheur dans la vidéo, « c’est un peu comme des sous-titres pour le monde ».
https://www.techradar.com/news/google-blows-our-minds-with-live-translation-glasses