Meta AI, la division de Meta chargée de l’intelligence artificielle (IA) a annoncé, le 31 août, avoir trouvé un moyen de décoder l’activité cérébrale liée à la parole sans se servir de technologies invasives. Cette découverte pourrait faciliter la vie des personnes souffrantes de problèmes de communication. L’objectif de Meta est d’arriver à déchiffrer la parole qui se forme dans le cerveau afin de développer une Brain-Computer Interface (BCI), ou une interface cerveau-machine en français.

La quête pour comprendre l’activité cérébrale

Depuis des années, les chercheurs se penchent sur le décodage de l’activité cérébrale liée à la parole. Cependant, la grande majorité des progrès ont été réalisés avec l’aide de technologies intrusives telles que l’électroencéphalographie intracrânienne et l’électrocorticographie. Ces deux méthodes nécessitent une intervention chirurgicale afin d’implanter des électrodes voire des puces comme peut le faire Neuralink, la société spécialisée dans la neurotechnologie co-fondée par Elon Musk.

Les membres de la division Meta AI ont eu recours à un procédé moins envahissant en utilisant l’électroencéphalographie (EEG) et la magnétoencéphalographie (MEG). Ces deux technologies sont pourtant réputées pour être peu précises. L’entreprise californienne explique qu’elles sont « notoirement bruyantes et [leurs résultats] peuvent varier considérablement d’une session d’enregistrement à l’autre et d’un individu à l’autre pour diverses raisons, notamment les différences entre le cerveau de chaque personne et l’endroit où sont placés les capteurs ».

Afin de pallier l’imprécision des enregistrements, les chercheurs de Meta ont fait fonctionner deux réseaux de neurones en parallèle. Le « speech model » qui analyse les paroles entendues et le « brain model » qui décortique l’activité cérébrale. Ces deux réseaux ont été alimentés par 150 heures d’enregistrements EEG et MEG provenant de 169 participants en parfaite santé ayant écouté des livres audios et des phrases isolées en anglais et en allemand.

Un schéma expliquant l'utilisant des deux réseaux de neuronnes

Pour décoder la parole à partir de signaux cérébraux non invasifs, le modèle de Meta apprend en comparant les deux réseaux de neurones et repère lorsque les mots entendus s’alignent sur l’activité cérébrale. GIF : Meta.

L’équipe de la division IA de Meta s’est montrée très satisfaite des résultats obtenus. « À partir de trois secondes d’activité cérébrale, nos résultats montrent que notre modèle peut décoder les segments vocaux avec une précision maximale de 73 % à partir d’un vocabulaire de 793 mots, c’est-à-dire une grande partie des mots que nous utilisons habituellement au quotidien », précise le communiqué.

Meta a déjà de l’expérience dans ce genre de recherches

Ce n’est pas la première fois que Meta cherche à comprendre ce qu’il se passe dans le cerveau humain. En février 2020, les équipes du Reality Labs, le département spécialisé dans le développement des technologies de réalité virtuelle et augmentée, travaillaient déjà sur la détection des signes mentaux à l’origine de la parole. Leur but était de concevoir une interface cerveau-machine permettant d’écrire par la pensée à hauteur de 100 mots par minute.

Cependant, ce type de projet a soulevé de nombreux questionnements éthiques, notamment sur l’usage que pourrait faire Meta des pensées auxquelles elle a accès. C’est pourquoi le géant des réseaux sociaux a décidé, en juillet 2021, d’abandonner ses travaux sur des technologies capables de lire les pensées. À la place, le groupe se concentre sur le développement d’un bracelet connecté capable de repérer des signaux moteurs et de les transformer en une action.

Un prototype du bracelet connecté de Meta

Le prototype de bracelet développé par Meta, équipé de capteurs électromyographiques pour « interpréter » les mouvements de l’utilisateur. Photographie : Meta.

Concernant leurs dernières recherches, les chercheurs de Meta AI rassurent en précisant qu’elles ne sont pas liées aux travaux antérieurs de l’entreprise et qu’elles ne serviront pas pour les futurs produits de Meta.