Passer au contenu

Prix Nobel : l’édition 2024 submergée par le tsunami de l’IA

Les deux lauréats du prix de physique et deux des trois vainqueurs du prix de chimie ont été récompensés pour leurs travaux dans le domaine du machine learning. Un résultat qui illustre bien l’impact croissant de cette technologie dans la sphère scientifique, et plus largement sur toute notre civilisation.

Comme chaque automne, les différents Prix Nobel sont en train d’être décernés par l’institut éponyme. Et cette année, il y a une tendance qui saute immédiatement aux yeux : quatre des sept premiers lauréats ont été immortalisés pour leurs contributions dans le domaine de l’intelligence artificielle — une véritable consécration qui témoigne de l’importance croissante de cette technologie dans la sphère scientifique.

Depuis plus d’un siècle, l’institut Nobel décerne (presque) toujours cette récompense académique ô combien prestigieuse en commençant par les sciences dites « dures ». Le prix de physiologie ou médecine ouvre généralement le bal, suivi par la physique et la chimie.

Lundi 7 octobre, le premier a été attribué aux Américains Victor Ambros et Gary Ruvkun pour leur découverte des microARN, une classe de petites molécules qui jouent un rôle déterminant dans la dynamique du génome. Ces travaux ont ouvert la voie à une véritable révolution dans notre compréhension de la régulation génétique, et la victoire bien méritée de ces deux géants de la biologie était donc pressentie depuis quelque temps déjà.

Une thématique en vogue

Mais dès le lendemain, la machine s’est emballée, et les récompenses se sont majoritairement recentrées autour d’une thématique bien précise : l’intelligence artificielle, et plus spécifiquement le machine learning – cette discipline dont l’objectif est de permettre à des ordinateurs d’« apprendre » à résoudre des problèmes grâce à différentes méthodes mathématiques et statistiques.

C’est une thématique qui est particulièrement à la mode en ce moment, notamment à cause de sa démocratisation extrêmement rapide reflétée par le succès d’outils grand public comme ChatGPT. Mais ce n’est que la partie émergée d’un immense iceberg qui a commencé à prendre forme bien avant la montée en puissance de l’agent conversationnel d’OpenAI. Certains considèrent par exemple que ce sont les travaux de l’illustre Alan Turing qui ont posé les bases de cette technologie dès les années 1950.

Mais si la contribution de celui qui est aujourd’hui largement considéré comme le père de l’informatique est effectivement indéniable, il a tout de même fallu attendre les années 80 pour voir apparaître les premiers signes du machine learning tel qu’on le connaît aujourd’hui, notamment à travers les travaux de John Hopfield et Geoffrey Hinton.

Le Nobel de Physique pour deux pionniers du machine learning

À l’époque, ces deux cadors de l’informatique et de la psychologie cognitive n’étaient pas encore conscients de l’impact qu’allaient avoir leurs recherches ; mais quatre décennies plus tard, les voilà désormais auréolés du Prix Nobel de Physique 2024. Et le moins que l’on puisse dire, c’est que les deux chercheurs n’ont pas volé leur consécration académique. À eux deux, ils ont bâti une grande partie des fondations de cette technologie qui bouleverse aujourd’hui le quotidien des chercheurs et du grand public.

Aujourd’hui, lorsque l’on parle d’IA, on fait souvent référence à de vastes réseaux de neurones virtuels, conçus pour imiter le fonctionnement du cerveau en communiquant à travers des liaisons semblables aux synapses. Comme dans un vrai cerveau, ces connexions peuvent être renforcées ou affaiblies à travers un processus d’entraînement pour permettre au système de résoudre des problèmes pour lesquels il n’a pas été explicitement programmé. C’est par exemple pour cela que les systèmes comme ChatGPT peuvent répondre à des questions diverses sans que les développeurs aient eu besoin d’inscrire chaque variante de chaque réponse dans le code source.

Cette approche n’aurait jamais pu prendre forme sans la contribution de John Hopfield, le père de ce qu’on appelle aujourd’hui le « réseau Hopfield » — un des premiers véritables neural networks modernes qui s’est avéré complètement révolutionnaire.

Pour y parvenir, il s’est notamment appuyé sur des préceptes qui relèvent de la physique fondamentale. Dans cette discipline, chaque système essaie tant bien que mal de s’installer dans un état dit de « basse énergie » en se débarrassant de l’énergie superflue pour revenir dans un état d’équilibre. Par exemple, on peut considérer un glaçon comme un système à haute énergie ; à température ambiante, il va progressivement fondre pour revenir à un état stable sur le long terme, en l’occurrence une forme liquide.

Hopfield a appliqué cette notion à ses réseaux de neurones virtuels. Au début, on peut considérer qu’un tel réseau existe dans un état de haute énergie où il n’est pas capable d’apporter une solution à un problème donné, car les valeurs des connexions qui relient les neurones virtuels sont relativement aléatoires. Mais au fil de l’entraînement, ces valeurs progressivement affinées pour tendre vers ce que l’on peut considérer comme un état de basse énergie. Au bout du processus, le système s’installe dans cet état relativement stable, suite à quoi il peut enfin produire des résultats exploitables et résoudre de vrais problèmes pour lesquels il n’a pas été explicitement programmé.

Quelques années plus tard, le second lauréat Geoffrey Hinton s’est servi de cette méthode comme d’une fondation pour un nouveau type de réseau de neurones. Là encore en utilisant des outils de physique statistique, il a réussi à concevoir ce qu’on appelle aujourd’hui une machine de Boltzmann, un système capable de reconnaître des motifs caractéristiques dans un ensemble de données qui semblerait totalement aléatoire du point de vue d’un humain. Cette machine de Boltzmann s’est par exemple révélée capable d’identifier des éléments spécifiques dans des images pour les classifier — un exercice qui fait partie des grands classiques du machine learning moderne.

Le prix de chimie pour DeepMind et son AlphaFold

De nombreux observateurs se sont insurgés contre la décision du comité, affirmant de façon parfois très virulente que le machine learning n’a rien à voir avec la physique fondamentale. Pour ces mêmes personnes, Hopfield et Hinton auraient été d’excellents candidats à au prix Turing, mais le fait d’avoir snobé des physiciens exceptionnellement méritants témoigne d’un manque de clairvoyance du jury.

Mais quoi que l’on pense de cette question, ces deux innovations ont joué un rôle déterminant dans le développement d’innovations scientifiques absolument majeures. Il est indiscutable que les travaux d’Hopfield et Hinton ont largement contribué à l’émergence de cette technologie qui est en train de bouleverser complètement la science dans son ensemble.

Un excellent exemple de cette dynamique a d’ailleurs été mis sur un piédestal dès le lendemain, lors de l’attribution du Nobel de Chimie. Car sur les trois éminents chercheurs qui ont été récompensés lors de cette édition, deux sont des héritiers directs des technologies mises au point par les Nobel de Physique 2024 : Demis Hassabis et son collègue John Jumper, respectivement fondateur et chercheur émérite de DeepMind.

Cette entreprise, qui fait partie de l’écosystème Google depuis son rachat en 2014, est un des principaux acteurs de la recherche en IA mondiale. Si ce nom vous rappelle quelque chose, c’est peut-être parce qu’on lui doit notamment AlphaGo et AlphaZero. Il s’agit de de modèles IA qui ont complètement révolutionné (le go et les échecs. Ces deux jeux millénaires à la complexité démentielle étaient autrefois considérés comme bien trop complexes pour être maîtrisés par un ordinateur à la capacité de calcul finie. Mais grâce à ces réseaux de neurones artificiels, ils ont purement et simplement démoli les meilleurs joueurs humains sans la moindre contestation possible — de véritables exploits techniques.

Mais ce ne sont pas ces contributions qui leur ont permis de rejoindre le cercle très fermé des Nobels. S’ils ont été auréolés de la plus haute distinction académique, c’est grâce à AlphaFold, un système conçu pour calculer la structure 3D des protéines — les éléments à partir desquels est construite la vie.

Ce problème, sur lequel nous nous sommes déjà attardés dans un article dédié (voir notre article ci-dessus), est absolument essentiel dans de très nombreuses branches de la biologie et de la médecine. Malheureusement, il a longtemps été jugé pratiquement insoluble à cause de sa complexité extraordinaire. Pendant des décennies, la structure des protéines a mis les plus grands esprits de la discipline à rude épreuve, forçant des laboratoires entiers à déployer des efforts monumentaux pour obtenir de bien maigres résultats.

Mais tout a changé quand Hassabis, Jumper et leurs collègues ont dévoilé un modèle IA capable de prédire la structure des protéines en un temps record. En quelques semaines, ils ont notamment réussi à modéliser la quasi-totalité des protéines du corps humain grâce à AlphaFold — un projet qui aurait demandé des siècles de travail aux chercheurs du monde entier.

Cette démonstration retentissante a fait l’effet d’une bombe dans la sphère académique, car elle regorge d’implications gigantesques et très concrètes en médecine.

Une autre donnée intéressante mérite d’être citée. En règle générale, les travaux révolutionnaires des lauréats du Prix Nobel ne sont pas récompensés avant plusieurs décennies. Or, ici, seuls 5 ans se sont écoulés entre la publication originale de DeepMind et la consécration. Un délai exceptionnellement court qui témoigne bien du statut exceptionnel de ces travaux.

Un vecteur de progrès pour toute l’humanité

AlphaFold a aussi aidé le grand public à prendre conscience du potentiel scientifique faramineux du machine learning. Désormais, des tas de questions qui relevaient autrefois de l’expérience de pensée sont en train de devenir bien plus abordables, avec tout ce que cela implique en termes de progrès scientifique.

Vu sous cet angle, la dernière cuvée des Nobel incarne un message important ; elle illustre à quel point « les méthodes calculatoires sont parties pour transformer la recherche », pour citer Arthur D. Levinson, fondateur d’une entreprise associée au projet AlphaFold.

Avec cette sélection 2024, le jury rappelle que l’IA ne se limite pas à ChatGPT, aux deepfakes et aux gadgets logiciels dont la Big Tech se sert pour surfer sur une thématique à la mode, comme Microsoft avec Copilot. C’est un outil au potentiel formidable qui peut apporter une véritable plus-value à l’humanité dans d’innombrables domaines — à condition de l’utiliser de façon pertinente et responsable. Il conviendra donc de suivre attentivement les travaux des chercheurs qui opèrent dans ce domaine, car ils vont sans aucun doute continuer de transformer profondément notre civilisation sur les années et décennies à venir.

🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Mode