Les électrodes parlent pour les muets

Par 10 juillet 2008

Grâce à un implant dans le cerveau, un logiciel et un synthétiseur vocal, les personnes victimes d'un AVC parviennent à produire des sons reconnaissables et pourraient peut-être recouvrer la parole.

Refaire parler les personnes victimes d'un accident vasculaire cérébral. C'est le projet de l'université de Boston, qui travaille sur un système capable d'interpréter les signaux émis par une électrode implantée dans le cortex moteur d'un homme paralysé mais en possession de ses facultés mentales. L'information est alors transmise à un synthétiseur vocal qui produit le son correspondant. Ce dispositif traduit en temps réel les pensées d'un patient en sons de sorte qu'il peut entendre sa "voix" lorsqu'il essaye de parler. Cela lui donne un retour immédiat sur sa prononciation, qu'il peut ensuite utiliser pour améliorer ses compétences linguistiques de la même façon que le font les enfants lorsqu'ils apprennent à parler. Pour l'instant, le malade ne peut cependant émettre que des sons vocaliques de base. Un premier test avait été effectué en 2004 sur un patient.
Un synthétiseur vocal
L'électrode avait été implantée dans son cerveau par l'équipe de Philippe Kennedy, neurologue chez Neural Signals. On espérait alors que les signaux émis par le cortex de son cerveau pourraient servir à le faire reparler. L'interprétation de ces signaux s'était toutefois révélée difficile. L'équipe a alors utilisé les données issues de scanographies du cerveau de personnes en bonne santé pour étudier leur activité neuronale pendant qu'elles parlaient. Ces expériences ont montré que les signaux du cerveau ne servent pas à coder des mots mais contrôlent plutôt la position des lèvres, de la langue, de la mâchoire et du larynx pour produire des sons basiques. C'est ainsi qu'a pu être développé le logiciel capable de reconnaître et traduire les évènements de l'activité du cerveau pendant la parole.
Des améliorations matérielles et logicielles
"Le synthétiseur fonctionne bien avec les voyelles mais il nous faut créer un système qui prenne mieux en charge les consonnes", explique Franck Guenther, le responsable du projet. Or, un tel dispositif sera plus difficile à contrôler pour le patient. "Jusqu'à présent, le malade  contrôle deux paramètres pour créer des voyelles. Mais pour les consonnes, il va devoir contrôler sept paramètres - trois pour le mouvement de la langue, deux pour le mouvement des lèvres, une pour la hauteur de la mâchoire et une pour celle du larynx". D'autres personnes sont à cet égard plus dubitatives. C'est le cas de Klaus-Robert, professeur à l'université technique de Berlin. "Si vous essayez d'aider quelqu'un à communiquer avec le monde extérieur, la question est de savoir jusqu'à quel point l'interface peut être stressante et éprouvante. Certaines interfaces de contrôle du cerveau en effet peuvent donner des migraines", explique-t-il. Frank Guenther a présenté les résultats de ses travaux lors d'une conférence à Paris le 3 juillet.

Mentions légales © L’Atelier BNP Paribas