Le monde ne fait que s'habituer à la puissance et à la sophistication des assistants virtuels créés par des sociétés comme Yandex et Google, qui peuvent déchiffrer notre langue parlée avec une précision étrange par rapport à ce que la technologie était capable d'il y a quelques années.
En réalité, cependant, un jalon beaucoup plus impressionnant et écrasant n'est peut-être pas loin, faisant de la reconnaissance vocale un jeu d'enfant: des systèmes d'intelligence artificielle (IA) capables de traduire notre activité cérébrale en un texte entièrement formé sans entendre un seul mot.
Ce n'est pas vraiment de la science-fiction. Au cours des dernières décennies, les interfaces cerveau-machine ont évolué à un rythme rapide, du travail avec des animaux aux participants humains, et, en fait, il existe déjà des tentatives de ce type.
Des chercheurs de l'Université de Californie à San Francisco expliquent cela dans une nouvelle étude.
Une équipe de scientifiques dirigée par le neurochirurgien Edward Chang du laboratoire UCSF a utilisé une nouvelle méthode pour décoder un électrocorticogramme: l'enregistrement des impulsions électriques qui se produisent pendant l'activité corticale enregistrées par des électrodes implantées dans le cerveau.
Dans une étude dans laquelle quatre patients épileptiques portaient des implants pour surveiller les crises causées par leur état de santé, l'équipe de l'UCSF a mené une expérience côte à côte dans laquelle les participants ont lu et répété à haute voix plusieurs phrases suggérées tandis que des électrodes enregistraient leur activité cérébrale pendant l'exercice.
Ces données ont ensuite été transmises à un réseau de neurones qui a analysé les modèles d'activité cérébrale correspondant à des signatures vocales spécifiques, telles que les voyelles, les consonnes ou les mouvements de la bouche, sur la base des enregistrements audio de l'expérience.
Ensuite, un autre réseau de neurones a décodé ces représentations – glanées à partir de répétitions de 30 à 50 phrases prononcées – et l'a utilisé pour essayer de prédire ce qui était dit en se basant uniquement sur des signatures de mots corticaux.
Le système a montré un taux d'erreur de mot de seulement 3 pour cent.
Bien qu'il existe de nombreux obstacles à surmonter, les scientifiques pensent que le système pourrait un jour servir de colonne vertébrale à une prothèse de parole pour les patients qui ont perdu la capacité de parler.
Les résultats sont présentés dans la revue Nature Neuroscience.