La Chine vient de se lancer dans un effort industriel unique en son genre en lançant la production de masse d’une puce informatique non-binaire. Une initiative qui pourrait contribuer à diversifier notre écosystème informatique, et peut-être même à faire émerger de nouvelles technologies.
Aujourd’hui, l’immense majorité des puces présentes dans les appareils que nous utilisons au quotidien sont construites autour d’une logique dite binaire, implémentée grâce à des transistors qui peuvent alterner entre deux états distincts — typiquement 0 et 1.
Le binaire, une affaire de compromis
Si le binaire est aussi prévalent de nos jours, c’est d’abord parce qu’il représentait un compromis idéal à l’aube de l’informatique. Conceptuellement parlant, c’est une approche extrêmement simple, ce qui a grandement facilité son implémentation dans les premiers systèmes informatiques. En outre, cette simplicité fait que le binaire se marie parfaitement avec l’algèbre booléenne, un système mathématique qui repose entièrement sur une logique de type « vrai ou faux ». Cela a permis de créer un lien à la fois intuitif et élégant entre la logique mathématique abstraite et l’implémentation physique, ouvrant ainsi l’apparition des premiers ordinateurs modernes.
Mais même si la logique binaire est une base extrêmement fiable, robuste et facile à manipuler, cela ne signifie pas pour autant qu’elle est parfaite. Aujourd’hui, elle reste la norme car toute une industrie s’est développée autour de cette approche, à tel point qu’il devient quasiment impossible de s’en séparer pour des raisons à la fois logistiques et économiques. Pourtant, des alternatives existent, et il y a même de nombreux cas de figure où d’autres systèmes seraient plus performants.

Le machine learning en est un bon exemple. Pour rappel, les modèles IA actuels sont construits autour de réseaux de neurones artificiels qui peuvent être stimulés en leur adressant une valeur de 1 ou 0. Avec un système ternaire capable d’utiliser trois valeurs (-1, 0 et 1 au lieu de 0 et 1), on pourrait aussi inhiber certains neurones avec une valeur de -1 pour améliorer l’efficacité du processus d’inférence.
Et ce n’est que la partie émergée d’un immense iceberg ; certains chercheurs sont même convaincus qu’il serait intéressant de développer des approches alternatives, par exemple basées sur un système non-binaire, pour faire progresser notre écosystème technologique. Et c’est précisément ce à quoi travaillent les troupes de l’université chinoise de Beihang, à Pékin, en ce moment.
Une puce hybride basée sur les probabilités
Selon le SCMP, l’équipe du professeur Li Hongge a développé un système hybride appelé HSN, pour Hybrid Stochastic Number. L’idée centrale, c’est d’utiliser ce bon vieux binaire en complément d’une autre approche dite stochastique pour concevoir une puce à la fois très efficace et exceptionnellement polyvalente.
Dans le monde binaire, chaque valeur correspond à une séquence de bits bien précise ; 1000 en binaire correspond par exemple au chiffre 8. Mais il suffit de changer la position d’un de ces bits pour changer la nature de l’information. Par exemple, décalez le premier bit pour obtenir 0100, et vous obtenez 4 au lieu de 8.
C’est à la fois un avantage et un inconvénient. D’un côté, c’est une approche complètement déterministe ; la même opération produit toujours le même résultat. Mais de l’autre, cela signifie aussi que le binaire est à la fois très sensible aux erreurs et pas forcément très efficace, car il faut parfois enchaîner plusieurs opérations mathématiques pour réaliser une simple modification.
Pour éviter ces lacunes, on peut aussi utiliser une approche stochastique, c’est-à-dire basée sur les notions d’aléatoire et de probabilités. Par exemple, on peut décider arbitrairement que le nombre de 1 dans une séquence de 10 bits représente un chiffre de 0 à 9. Dans ce cas, notre 8 serait représenté par une série comme 0110111111… mais aussi 1 111 101 011. Ici, ce n’est pas la valeur exacte de chaque bit qui compte, mais plutôt leur distribution statistique.
Là encore, c’est à la fois un avantage et un inconvénient. Le principal souci, c’est que cette approche relativement ancienne, conceptualisée dès les années 1960, n’est pas entièrement déterministe. On ne peut pas faire confiance à chaque morceau d’information individuel, et la vraie valeur ne peut émerger qu’à partir d’un ensemble de bits suffisamment grand. Cela peut évidemment être problématique dans les applications qui reposent sur la précision arithmétique pure. Mais d’un autre côté, la non-dépendance aux valeurs absolues rend cette approche plus résistante aux erreurs. Elle permet aussi de réaliser certaines opérations beaucoup plus rapidement, et même en parallèle.
En faisant cohabiter et interagir les deux technologies sur un même support, l’équipe chinoise a donc pu concevoir une puce d’un nouveau genre. Grâce à la complémentarité du binaire et de la méthode stochastique, elle est capable d’exploiter les avantages respectifs des deux approches tout en limitant leurs inconvénients.
Un composant déjà produit en masse
Ce système a déjà été implémenté sur une puce qui est désormais produite en masse par SMIC, le premier fondeur chinois. Elle est désormais utilisée dans des écrans tactiles, une technologie particulièrement adaptée à cette approche hybride.
Par exemple, certaines fonctions, comme le calcul des coordonnées des pixels, nécessitent des mathématiques exactes ; elles sont donc prises en charge par la partie binaire. Mais en parallèle, les surfaces tactiles produisent aussi une grande quantité de « bruit de fond » électronique qu’il faut absolument filtrer, par exemple pour savoir si l’utilisateur est en train d’appuyer sur l’écran ou s’il l’a simplement effleuré. C’est une tâche relativement éprouvante pour un système binaire, mais qu’un système stochastique peut effectuer très facilement. Grâce à ce système hybride, les deux parties peuvent être gérées très efficacement par un système à la puissance de calcul pourtant faible.
« La puce actuelle atteint déjà une latence de calcul sur puce au niveau de la microseconde, établissant un équilibre entre l’accélération matérielle haute performance et la programmabilité logicielle flexible », expliquent les auteurs.
L’industrie à l’aube d’une grande mutation ?
Et ce n’est peut-être qu’un début. L’équipe est en train de développer un ensemble d’instructions (des commandes de bases qui indiquent quoi faire à un processeur) spécifiquement adapté à cette approche stochastique hybride. Une fois mature, cela pourrait permettre de concevoir des systèmes de contrôle extrêmement performants pour des applications bien spécifiques, notamment dans des domaines comme le machine learning.
Certes, il y a peu de chances que cette approche se démocratise dans un futur proche ; le binaire est ancré trop profondément dans notre société pour envisager un grand remplacement. Mais il sera très intéressant de voir si cette initiative fera des émules.
Nous vivons à une époque où les limites physiques qui conditionnent notre capacité de calcul (taille des transistors, gestion de la température et de l’énergie…) deviennent de plus en plus difficiles à repousser pour satisfaire les besoins de notre société. Plus nous approcherons de ces limites, plus il deviendra intéressant de s’écarter du binaire et de privilégier des approches hybrides de ce genre ; il n’est pas impossible que de plus en plus d’entreprises et institutions se mettent à explorer cet horizon, ce qui pourrait considérablement transformer notre écosystème technologique. Rendez-vous d’ici quelques années, ou plutôt décennies, pour un nouvel état des lieux !
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.