Une invention pour lire des mots ou une phrase formulée dans la tête
C'était à un grand congrès scientifique, les pensées d'un étudiant avec quelques électrodes sur la tête sont traduites à l'écran. C'est une grande source d'espoir pour tous ceux qui sont provisoirement ou définitivement privés de parole. Cette invention a été saluée par les experts présents comme la meilleure nouvelle du congrès. Les précisions de Géraldine Zamansky, journaliste au Magazine de la Santé sur France 5.
franceinfo : Cette recherche australienne permettrait de s’exprimer, sans parler ?
Géraldine Zamansky : Cette équipe australienne de l’Université de Sidney vient de présenter les résultats de cette recherche au cours une conférence scientifique. Et en parallèle, elle a mis en ligne sur son site, une vidéo assez spectaculaire. Assis à côté d’un ordinateur de taille normale, un jeune homme a la tête couverte de petits capteurs, qui suivent les signaux électriques générés par l’activité du cerveau. Puisque c’est bien du courant qui circule entre les neurones.
Mais là, rien à voir avec un électroencéphalogramme classique. S’affiche d’abord sur l’écran, à côté du jeune homme, la phrase qu’il est en train de formuler en silence. Puis, quelques secondes plus tard, la phrase obtenue par les capteurs. Enfin plus précisément, les mots devinés par l’intelligence artificielle reliée aux capteurs.
Ce système est capable de deviner des mots à partir d’une activité électrique ?
Oui, mais attention, m’a tout de suite précisé le Pr Chin-Teng Lin, qui dirige cette recherche. Son dispositif ne décrypte pas une pensée, mais bien des mots, une phrase. Ils doivent être vraiment prononcés "dans la tête" pour que le système arrive à les reconnaître. Et je vous rassure, impossible d’y parvenir en mettant juste des capteurs sur le crâne.
Le Pr Lin m’a expliqué qu’il fallait au moins quelques minutes d’adaptation avec une participation de la personne. Car même si nos cerveaux ont des points communs quand ils créent du langage, chacun est unique. Donc même si elle ne peut pas parler, la personne doit d’abord lire certaines phrases pour que le système s’ajuste. Plus cette phase d’apprentissage et de personnalisation est longue, meilleurs sont les résultats.
Alors j’imagine que la vidéo montre un exemple de "traduction" réussie ?
Oui, une commande de café est presque parfaitement décryptée. En revanche, lorsqu’il s’agit de l’appréciation nuancée d’un film, les erreurs se multiplient. Mais ce n’est pas vraiment la priorité de quelqu’un qui n’arrive plus à parler après un accident vasculaire cérébral, par exemple. Surtout que la reconnaissance des verbes fonctionnerait déjà très bien.
Car plusieurs zones du cerveau s’activent alors, en lien avec le sens du verbe. "Marcher" réveille des "neurones du mouvement", si je puis dire. Cela crée une signature plus facile à traduire par la machine. Par conséquent, quelques besoins urgents peuvent être rapidement exprimés. Avec beaucoup plus de simplicité que les dispositifs actuels, qui suivent les mouvements des yeux.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.