Passer au contenu

Connexus : l’implant neuronal qui redonne la voix aux personnes paralysées grâce à l’IA

Cet implant, s’il réussit ses essais cliniques, deviendra la première interface cerveau-ordinateur (BCI) capable de décoder l’activité neuronale en paroles synthétisées. Même Neuralink ne s’est pas aventurée sur ce terrain.

Lorsqu’on pense aux BCI (Brain Computer Interface), nos pensées se tournent irrémédiablement vers Neuralink. L’entreprise avait marqué les esprits en 2024 en permettant à un patient tétraplégique de contrôler des dispositifs numériques par la seule pensée, puis, quelques mois après, à une seconde personne.  Si la firme de Musk cristallise l’attention médiatique, il ne faut surtout pas oublier que ce n’est pas elle qui fut la première à inventer les BCI, et surtout qu’elle n’est pas seule dans le secteur.

D’autres acteurs, poursuivant d’autres objectifs, existent aussi (Synchron ou Starfish par exemple, et plus récemment OpenAI), et vivent malheureusement un peu dans l’ombre de Neuralink. C’est le cas de Pandromics, une start-up texane, qui vient d’obtenir une approbation que très peu d’acteurs neurotech ont reçue : le feu vert de la FDA (Food and Drug Administration) pour un premier essai clinique humain de son interface cerveau-ordinateur Connexus, un système conçu pour redonner une voix aux personnes paralysées. Une aspiration autrement plus complexe que les BCI visant uniquement une interaction minimale avec un ordinateur.

Connexus
Ce composant est la partie la plus essentielle du système Connexus, que l’on pourrait comparer à la « porte d’entrée » des signaux neuronaux. © Paradromics

Connexus : décoder la parole à la source

Le module cortical conçu par Paradromics (voir photo ci-dessus) est réalisé en platine-iridium, un alliage fortement conducteur et biocompatible, capable de résister des années dans le tissu cérébral sans s’oxyder. Les 400 micro-électrodes qui composent sa matrice (les pointes visibles sur l’image) sont implantées 1,5 mm sous la surface du cortex moteur. Cette zone est située dans le lobe frontal du cerveau, essentielle pour la planification, le contrôle et les mouvements volontaires du corps, et donc de l’articulation de la parole.

Cette proximité lui permet d’enregistrer les signaux neuronaux,  avant qu’ils ne soient transformés en commande musculaire. Ces électrodes, plus fines qu’un cheveu humain, sont conçues pour capter les signaux émis par les neurones individuels. Cette implantation intracorticale permet au système d’enregistrer directement les schémas d’activité neuronale dans cette région, avant qu’ils ne soient traduits en commandes musculaires effectives pour l’articulation. C’est, en quelque sorte, un accès direct aux neurones qui déclenchent les mouvements du larynx, de la langue et des lèvres.

Les signaux neuronaux enregistrés sont ensuite routés par un fin câble implanté sous la peau, jusqu’à un émetteur interne placé dans la cage thoracique, un boîtier qui sert à la fois d’alimentation tampon, de processeur préliminaire et d’émetteur. Il communique en continu avec un second boîtier externe, posé sur la peau, qui alimente l’ensemble par induction et transfère les données vers l’ordinateur chargé du décodage vocal.

Connexus 2
Le module cortical Connexus en vue éclatée : on y distingue clairement le boîtier, l’électronique interne et la matrice d’électrodes. © Paradromics

Le rôle de l’IA et l’étude Connect-One

Cet ordinateur externe est doté d’intelligence artificielle et de modèles de langage avancés, dont la mission est de décoder les signaux neuronaux bruts en parole synthétisée. Pour y parvenir, le système doit d’abord « apprendre » la manière dont le cerveau du patient encode la parole. Les patients qui le porteront devront imaginer prononcer des mots et des phrases complètes, sans produire le moindre son.

À chaque tentative, une signature neuronale est émise, que l’IA analysera comme un motif. Elle les comparera, les classera et finira par reconnaître quel motif correspond à quel son. C’est un apprentissage personnalisé : chaque cerveau codant la parole à sa manière, le système doit donc s’y adapter.

L’essai clinique, baptisé Connect-One, est prévu pour le premier trimestre de l’année prochaine et concernera deux personnes très sévèrement paralysées. Elles seront invitées à imaginer prononcer des phrases, ce qui permettra à l’IA de l’ordinateur de construire un dictionnaire interne de correspondances entre les schémas neuronaux et les intentions vocales du patient.

L’objectif ultime étant de générer une parole synthétisée en temps réel, Paradromics a tout prévu pour éviter que celle-ci ne sonne trop robotique. L’IA utilisera, si possible, d’anciens enregistrements de la voix du patient pour créer un clone vocal personnalisé. D’ailleurs d’où sort le son ? De l’ordinateur en charge du décodage, qui générera la parole en temps réel à partir de ce qu’il a reçu du module cortical.

Avec un débit d’information de l’ordre de 200 bits/s (lors des essais précliniques), Paradromics affirme capter l’un des flux neuronaux les plus rapides jamais enregistrés pour un système BCI intracortical. Une vitesse largement suffisante pour produire une voix qui ne soit pas trop hachée ou artificielle. Attention néanmoins, ces chiffres ne sont valables que dans un environnement contrôlé et restent donc théoriques ; rien ne prouve que ce débit soit le même une fois l’implant installé. Seul l’essai Connect-One permettra de confirmer cette performance, et l’aval de la FDA, lui, ne garantit rien d’autre qu’un droit à l’expérimentation. Si Connect-One est une réussite, Paradromics sera la première entreprise qui aura décodé une voix au niveau neuronal : un incroyable accomplissement dans le secteur des BCI !

🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Mode