Skip to main content

26 Fév, 2024

Les capteurs faciaux wearables s’ajoutent à l’évolution de la technologie qui nous « comprend ».

Les capteurs faciaux wearables s’ajoutent à l’évolution de la technologie qui nous « comprend ».

Une nouvelle technologie coréenne peut lire nos visages pour lire nos émotions

Si les robots humanoïdes veulent un jour s’intégrer pleinement dans la société, ils devront être capables de lire nos états émotionnels et d’y répondre de manière appropriée. Un nouveau vêtement conçu par des chercheurs coréens pourrait les y aider.

Les robots sont doués pour un grand nombre de choses. Ils peuvent soulever des charges impressionnantes, apprendre étonnamment vite et même piloter un avion.

Mais lorsqu’il s’agit de nous comprendre vraiment, de comprendre nos émotions humaines désordonnées, nos sautes d’humeur et nos besoins intérieurs, ils sont à peu près aussi doués qu’un grille-pain pour faire de l’art. Cette situation a toutefois évolué lentement au fil du temps, et un nouveau système annoncé par des chercheurs de l’Institut national coréen des sciences et technologies d’Ulsan (UNIST) pourrait bien faire progresser encore plus rapidement l’intelligence émotionnelle de nos technologies.

Une équipe coréenne a créé un système facial portable et extensible qui utilise la friction de la peau et la surveillance des vibrations pour évaluer les émotions humaines et générer sa propre énergie. Et oui, c’est aussi bizarre que ça en a l’air.

Le système portable se compose d’un ensemble de capteurs minces, transparents et flexibles qui adhèrent au visage sur les côtés gauche et droit de la tête. La plus grande partie de chaque capteur se trouve entre l’œil et l’oreille, et les branches s’étendent au-dessus de chaque œil, jusqu’à la mâchoire et à l’arrière de la tête. L’équipe précise que les capteurs peuvent être personnalisés pour s’adapter à n’importe quel visage.

Vue du capteur adhésif et de sa position sur le visage

Une fois les capteurs en place, ils sont connectés à un système intégré qui a été entraîné à décoder les émotions humaines sur la base des déformations de nos visages et des vibrations de notre voix. Contrairement à d’autres systèmes utilisant des techniques similaires, celui-ci est entièrement auto-alimenté par l’étirement du matériau du capteur grâce à un principe piézoélectrique. Cela signifie qu’il peut être porté toute la journée (comme si vous le vouliez !) sans qu’il soit nécessaire de le recharger. Selon les chercheurs de l’UNIST, c’est la première fois qu’un système de reconnaissance des émotions entièrement indépendant et portable est créé.

S’il est peu probable que les autocollants basés sur le visage soient portés au quotidien, l’équipe de l’UNIST a intégré sa technologie dans des environnements VR, où il est un peu plus facile de l’imaginer en plein essor. Imaginez le développement de casques VR plus complets, capables de surveiller nos émotions et d’adapter nos mondes virtuels en conséquence. En fait, au cours de leurs essais, les chercheurs ont utilisé leur nouveau système de détection des émotions pour recommander des livres, de la musique et des films dans divers environnements virtuels en fonction de l’état d’esprit de l’utilisateur.

« Vous me comprenez »

Les travaux de l’UNIST s’inscrivent dans une longue lignée d’efforts visant à rendre la technologie plus sensible aux êtres humains qui l’utilisent.

Nous avons vu un collier capable de lire les expressions faciales pour en déduire nos états émotionnels ; une tête robotique capable de refléter les expressions faciales humaines ; un haut-parleur intelligent qui suggère des musiques en fonction de votre état d’esprit, à partir de l’analyse de votre voix ; et un système d’IA qui peut aider les voitures autonomes à prédire les actions des autres conducteurs en fonction de leur personnalité. Il y a même eu un projet en 2015 qui a peut-être préfiguré la nouvelle étude de l’UNIST : des autocollants faciaux qui pourraient aider les robots à comprendre nos émotions. Qui pourrait oublier le succès fulgurant du robot japonais Pepper, qui lit les émotions, lancé en 2015 et qui aide aujourd’hui plus de 2 000 entreprises dans le monde entier ?

À mesure que les technologies s’améliorent pour comprendre nos états émotionnels, non seulement les androïdes seront mieux à même d’utiliser nos humeurs contre nous pour conquérir le monde (en plaisantant), mais ces progrès pourraient faire tomber certains des murs qui subsistent entre les humains et les robots.

Imaginez les implications pour les robots d’accompagnement médical des personnes âgées. Au lieu d’un robot ennuyeux qui passe trois fois par jour pour vous demander de prendre vos médicaments ou de boire plus d’eau d’une voix mécanique et plate, une telle machine pourrait engager une conversation avec vous, jauger votre humeur et employer le bon type de stratégie conversationnelle cajolante pour vaincre votre résistance obstinée à la prise en charge de soi-même.

Les robots émotionnellement intelligents pourraient aider les enfants à gérer les problèmes de harcèlement à l’école en vaporisant ces harceleurs (encore une fois, nous plaisantons). Mais ils pourraient aussi représenter un lieu sûr où les enfants pourraient discuter de sujets trop difficiles à aborder avec des compagnons humains. Parce que ces robots peuvent garder leur sang-froid et, par une ironie linguistique, ne pas être « poussés à bout », ils pourraient donner des conseils lucides, ce qu’un parent frustré ne serait pas en mesure de faire.

Dans une vision plus sombre, la technologie de lecture des émotions pourrait agir comme une sorte de détecteur de mensonges avancé, décodant les sentiments réels d’une personne indépendamment de ce qu’elle dit ressentir.

Les façons dont les technologies émotionnellement intelligentes pourraient influencer nos vies sont presque aussi illimitées que la gamme d’émotions que nous éprouvons quotidiennement en tant qu’espèce. Et même si le port de capteurs collants sur le visage n’est peut-être pas la voie à suivre, les travaux de l’UNIST contribuent certainement à franchir une nouvelle étape dans la puissante ascension vers des machines qui « nous comprennent ».

Ou, comme le dit Jiyun Kim, responsable de l’étude, « pour une interaction efficace entre les humains et les machines » : « Pour une interaction efficace entre l’homme et la machine, les dispositifs d’interface homme-machine (IHM) doivent être capables de collecter divers types de données et de traiter des informations intégrées complexes. Cette étude illustre le potentiel d’utilisation des émotions, qui sont des formes complexes d’informations humaines, dans les systèmes portables de la prochaine génération ».

https://www.nature.com/articles/s41467-023-44673-2

https://news.unist.ac.kr/worlds-first-real-time-wearable-human-emotion-recognition-technology-developed/