Skip to main content

14 Oct, 2022

La technologie EarCommand permet aux utilisateurs d’envoyer silencieusement des commandes à leurs appareils.

La technologie EarCommand permet aux utilisateurs d’envoyer silencieusement des commandes à leurs appareils.

Un jour peut-être, vos écouteurs EarCommand vous permettront de parler à vos appareils sans parler à voix haute.

S’il est pratique de pouvoir contrôler nos appareils par des commandes vocales, il peut être problématique de les prononcer à voix haute. Le système EarCommand offre une alternative, puisqu’il « lit » les mots prononcés en silence par les utilisateurs en surveillant leur conduit auditif.

Tout d’abord, quels sont les inconvénients de parler à nos smartphones ou à nos smartwatches ? Eh bien, les commandes vocales peuvent être entendues par d’autres personnes (ce qui soulève des problèmes de confidentialité), elles peuvent être noyées par des bruits de fond forts, et il peut être difficile pour les appareils de reconnaître une grande variété de voix d’utilisateurs différents.

C’est là qu’intervient EarCommand.

Cette technologie est mise au point par une équipe de l’université de Buffalo (New York), dirigée par Yincheng Jin. Elle repose sur l’observation suivante : lorsque nous prononçons silencieusement différents mots, les actions musculaires et osseuses qui les accompagnent entraînent une déformation distincte du conduit auditif, ce qui signifie que des modèles de déformation spécifiques peuvent être associés à des mots spécifiques.

Sur le plan matériel, EarCommand se compose d’un dispositif ressemblant à un écouteur qui utilise un haut-parleur orienté vers l’intérieur pour émettre des signaux à ultrasons dans le conduit auditif de la personne qui le porte. Lorsque ces signaux sont réfléchis par la surface interne du canal, leurs échos sont captés par un microphone orienté vers l’intérieur. Un ordinateur relié à l’appareil analyse ces échos et utilise un algorithme personnalisé pour déterminer la déformation du canal auditif, et donc le mot prononcé.

Dans les tests effectués jusqu’à présent, les utilisateurs ont articulé 32 commandes différentes au niveau des mots et 25 commandes différentes au niveau des phrases. Le système a compris la plupart de ce qu’ils disaient, avec un taux d’erreur au niveau des mots de 10,2 % et un taux d’erreur au niveau des phrases de 12,3 % – ces chiffres devraient s’améliorer au fur et à mesure du développement de la technologie. En outre, le système a fonctionné même lorsque les utilisateurs portaient un masque ou se trouvaient dans des environnements bruyants, et contrairement à d’autres systèmes de lecture de la parole silencieuse, il n’intègre pas de caméra.

Un article sur cette recherche a récemment été publié dans la revue Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies.

Le système EarHealth, développé par une équipe dirigée par le professeur adjoint Zhanpeng Jin de l’université de Buffalo, utilise des oreillettes émettant des signaux et lisant les échos pour détecter les problèmes d’oreille tels que les blocages de cérumen, les ruptures de tympan et l’otite moyenne, qui est une infection courante de l’oreille.

https://dl.acm.org/toc/imwut/2022/6/2

https://www.buffalo.edu/news/releases/2022/08/003.html

https://www.newscientist.com/article/2332193-experimental-earphone-can-hear-commands-user-is-silently-mouthing/