Passer au contenu

Le syndrome de la « grenouille bouillie » : l’IA nous rend idiots, selon ces chercheurs

Notre cerveau a la sale manie de tendre naturellement vers le moindre effort, à nous détourner des nouveaux sentiers à défricher. Si nous usons de l’IA trop régulièrement, nous lui offrons sur un plateau d’argent une cure de sommeil intellectuel sans réveil prévu.

« Les moyens de développer l’intelligence ont augmenté le nombre des imbéciles », disait le peintre surréaliste Francis Picabia. Une boutade provocatrice qui date du siècle dernier, mais qui nous paraît aujourd’hui être le centre de ce débat aussi passionnant qu’inquiétant. La démocratisation des outils servant l’esprit humain, dans certains cas, ne garantit en rien son élévation ; c’est même souvent l’inverse. Nous pourrions citer, pêle-mêle l’invention du GPS, et plus tard, de Google Maps ou de Waze, qui nous dispense aujourd’hui de nous repérer dans l’espace la majorité du temps. Les correcteurs orthographiques intégrés presque partout aujourd’hui, les algorithmes de recommandation des grandes plateformes ou encore les traducteurs automatiques.

Tous ces outils avaient un point commun : ils externalisaient une tâche circonscrite, sans jamais toucher au cœur de la cognition complexe. En revanche, l’IA générative, sous toutes ses formes, est le premier outil de l’Histoire à simuler et à prendre en charge le processus de raisonnement, court-circuitant ainsi l’effort cognitif.

Un sujet que la recherche embrasse désormais avec sérieux : en février 2025, des chercheurs de Microsoft et de l’Université Carnegie pointaient du doigt les risques d’un usage excessif de cette technologie. Quelques mois plus tard, c’est le MIT (Massachusetts Institute of Technology) qui mettait ChatGPT au pilori pour ses effets délétères sur l’activité intellectuelle. Pareil, pour ces deux chercheurs américains qui mettaient en lumière la distorsion de notre rapport à l’information et à l’apprentissage à cause de l’IA.

Cette fois-ci, ce sont des chercheurs de l’UCLA, du MIT, de Carnegie Mellon et d’Oxford qui viennent de tirer un coup de fusil dans la même direction. Dans leur étude partagée le 7 avril sur la plateforme arXiv, ils apportent la démonstration causale que déléguer son raisonnement à une machine, même dix minutes, suffit déjà à le dégrader fortement.

ChatGPT : une prothèse cognitive aux effets boomerang

Afin d’établir cette conclusion, les chercheurs ont sollicité 350 participants, répartis en deux groupes, à qui ils ont soumis une série d’équations à résoudre. L’un pouvait s’aider d’un chatbot basé sur ChatGPT-4o ; l’autre devait s’en sortir par ses propres moyens.

À mi-parcours, soit à peine une dizaine de minutes après le début de l’exercice, l’accès à l’IA était coupé sans préavis pour le groupe qui en bénéficiait. Sevrés soudainement de l’assistant, les participants ne revenaient pas à leur niveau de départ et ils tombaient même en dessous de celui des participants qui n’avaient jamais eu accès à l’outil.

Sur les équations restantes, leurs résultats chutaient sous ceux du groupe sans chatbot ; mais c’est le deuxième indicateur mesuré par les chercheurs qui s’est révélé le plus préoccupant : le taux d’abandon. Face à une équation trop difficile sans chatbot pour les guider, ils renonçaient plus souvent et plus vite que ceux qui avaient travaillé seuls. Comme si les dix minutes passées à déléguer leur réflexion avaient suffi à atrophier leur persévérance intellectuelle.

Pour valider une deuxième fois ce résultat, ils ont reproduit le protocole sur 670 participants soumis à des exercices de raisonnement, puis sur 200 autres confrontés à des questions de compréhension de lecture. Dans l’ensemble, l’expérience a livré les mêmes conclusions.

L’étude apporte un éclairage supplémentaire, en distinguant, au sein du groupe assisté, deux profils d’utilisation. Le premier : les participants qui avaient demandé au chatbot de résoudre directement les équations fractionnaires, sans engager leur propre raisonnement. Le second : ceux qui s’en étaient servis pour obtenir des indices ou des explications de méthode, avant de finaliser la résolution par eux-mêmes. Lorsque l’accès au chatbot fut coupé, le premier groupe accusait une chute bien plus marquée que le second, tant sur le nombre de bonnes réponses aux équations restantes que sur la fréquence des abandons face aux questions difficiles.

Ce qui suggère donc que déléguer son raisonnement coûte cognitivement plus cher que de l’exercer avec assistance et que ce surcoût semble se manifester précisément au moment le moins opportun : quand l’outil n’est plus là.

Le syndrome de la « grenouille bouillie », c’est quoi au juste ?

« C’est analogue à l’effet de la “grenouille bouillie”, où chaque action progressive semble sans coût, jusqu’à ce que l’effet cumulatif devienne difficile à corriger », expliquent les auteurs. Une métaphore tirée d’une expérience de physiologie du XXIe siècle, qui consistait à placer une grenouille dans un récipient d’eau froide que l’on portait très lentement à ébullition. Comme la chauffe était imperceptible pour la grenouille, elle ne sautait pas pour se sauver de la mort, puisqu’elle ne ressentait, à aucun moment, une variation de température suffisamment importante.

Si l’expérience a été contestée depuis, notamment en raison du fait que les grenouilles, contrairement à ce que suggérait l’expérience originale, finissaient bel et bien par s’enfuir, sa logique conceptuelle reste, elle, parfaitement valide. C’est pour cela que les chercheurs l’ont retenu.

Transposée à leur expérimentation, elle décrit peu ou prou ce qu’il s’est passé pour les usagers qui se sont vus privés du chatbot pendant la résolution des équations ou des problèmes. En dix minutes, sans s’en apercevoir, ces participants avaient intégré que la résistance à la difficulté leur était insupportable. Ils n’ont pas senti le moment où ils auraient pu décider de procéder autrement, parce que ce moment… n’existe pas, dans une expérience comme dans la vie réelle. Comme l’eau qui ne bout pas d’un seul coup, les capacités cognitives ne disparaissent pas du jour au lendemain.

Sauf que les utilisateurs réguliers de modèles d’IA ne les utilisent rarement que dix minutes ; c’est un usage parfois quotidien et qui dure peut-être depuis l’arrivée des premiers chatbots. « Ces effets [NDLR : sur les capacités cognitives] s’accumuleront sur des années, et quand ils seront visibles, il sera difficile de les inverser », préviennent les auteurs. Pour Rachit Dubey, co-auteur et professeur de sciences cognitives computationnelles à l’UCLA, c’est un véritable enjeu de société. « Si nous déléguons à l’IA, à grande échelle, tout et n’importe quoi, qu’est-ce que cela fera à notre propre image de nous-mêmes ? », s’interroge-t-il. Un questionnement fondamental sur la confiance que nous portons à notre propre intelligence et au devenir de notre créativité si nous ne sommes même plus les auteurs de nos pensées. « Nous aurons une génération d’apprenants qui ne sauront pas de quoi ils sont capables », dit-il. Une recommandation adressée à une industrie (sans citer de noms) dont le modèle économique repose exactement sur l’inverse.

🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Mode