Un implant utilise les signaux cérébraux pour décoder ce que les gens essaient de dire
Un implant utilise les signaux cérébraux pour décoder ce que les gens essaient de dire

Des chercheurs ont développé un capteur qui enregistre les signaux cérébraux pour décoder ce que les gens essaient de dire
Les chercheurs ont développé un capteur haute résolution qui enregistre les signaux cérébraux pour décoder ce que les gens essaient de dire. Même s’il n’en est encore qu’à ses débuts, l’appareil pourrait permettre aux personnes ayant perdu la parole en raison d’une maladie neurodégénérative de communiquer.
La perte de la capacité de communiquer peut être un effet secondaire de maladies neurodégénératives débilitantes comme la sclérose latérale amyotrophique (SLA), dans laquelle la fonction cognitive est préservée, mais les muscles qui contrôlent la parole deviennent faibles et tendus. Une solution pour rétablir la communication consiste à décoder les signaux directement du cortex moteur du cerveau, qui déclenche des mouvements musculaires dans un ordre spécifique pour produire différents sons.
Des chercheurs de l’Université Duke aux États-Unis ont développé un implant cérébral qui utilise des enregistrements neuronaux à haute résolution pour décoder les signaux cérébraux d’une personne et les traduire en ce qu’elle essaie de dire.
« De nombreux patients souffrent de troubles moteurs débilitants, comme la SLA (sclérose latérale amyotrophique) ou le syndrome de verrouillage, qui peuvent altérer leur capacité à parler », a déclaré Gregory Cogan, l’un des auteurs correspondants de l’étude. « Mais les outils actuellement disponibles pour leur permettre de communiquer sont généralement très lents et fastidieux. »
Actuellement, le meilleur taux de décodage de la parole est d’environ 78 mots par minute, alors que nous parlons à environ 150 mots par minute. Le décalage est généralement imputable au nombre de capteurs d’activité cérébrale utilisés ; moins de capteurs signifie moins d’informations déchiffrables à décoder.
Pour améliorer les appareils existants, les chercheurs ont emballé 256 capteurs cérébraux microscopiques sur un morceau de plastique flexible de qualité médicale de la taille d’un timbre-poste, ce qui signifie que l’appareil était capable d’obtenir des signaux neuronaux de meilleure qualité avec une plus grande résolution spatiale.
Malgré leur proximité, les neurones distants de seulement quelques microns peuvent avoir des schémas d’activité très différents lors de la coordination de la parole. Faire des prédictions précises sur ce que quelqu’un a l’intention de dire nécessite de distinguer les signaux des cellules cérébrales voisines.

Comparé à d’autres appareils (à gauche), l’appareil de l’Université Duke possède deux fois plus de capteurs et est plus petit
L’implant devait ensuite être testé. Les chercheurs ont recruté quatre patients qui subissaient déjà une opération au cerveau pour traiter la maladie de Parkinson ou pour se faire enlever une tumeur et ont interrompu leur opération – brièvement – pour leur appliquer l’implant.
« J’aime le comparer à une équipe de ravitaillement d’une course automobile », assure Gregory Cogan. « Nous ne voulions pas ajouter de temps supplémentaire à la procédure d’exploitation, c’est pourquoi nous devions entrer et sortir dans un délai de 15 minutes. Dès que le chirurgien et l’équipe médicale ont dit « Go ! » nous sommes passés à l’action et le patient a accompli la tâche. »
La tâche était simple. Les participants ont entendu une série de mots absurdes comme « ava », « kug » ou « vip » et ont prononcé chacun d’eux à haute voix. L’implant a enregistré l’activité du cortex moteur du patient en coordonnant près de 100 muscles qui font bouger les lèvres, la langue, la mâchoire et la boîte vocale (larynx).
Les données ont ensuite été introduites dans un algorithme d’apprentissage automatique pour voir avec quelle précision il pouvait prédire le son émis, sur la base uniquement des enregistrements de l’activité cérébrale.
Pour certains sons et participants, comme « g » dans le mot « gak », le décodeur avait raison dans 84 % des cas lorsque c’était le premier son d’une chaîne de trois qui constituait un mot absurde particulier. La précision diminuait à mesure que le décodeur analysait les sons au milieu ou à la fin du mot et se débattait si deux sons étaient similaires, comme « p » et « b ».
Dans l’ensemble, le décodeur était précis dans 40 % des cas. Bien que cela ne semble pas particulièrement impressionnant, les chercheurs notent que l’algorithme n’utilisait que 90 secondes de données vocales prises au cours du test de 15 minutes.
Les chercheurs continueront d’améliorer la précision et la vitesse de décodage de l’appareil et utilisent une subvention des National Institutes of Health (NIH) pour travailler sur une version sans fil.
« Nous développons actuellement le même type d’appareils d’enregistrement, mais sans aucun fil », souligne Gregory Cogan. « Vous seriez capable de vous déplacer et vous n’auriez pas besoin d’être attaché à une prise électrique, ce qui est vraiment excitant. »