Avec la déferlante des LLM (Large Language Models), provoquée fin 2022 par l’émergence soudaine de ChatGPT, l’IA est sortie des cercles spécialisés pour se retrouver entre les mains du grand public. Depuis l’avènement d’Internet, jamais le rapport que nous entretenons avec la connaissance n’avait été secoué aussi violemment, puisque nous pouvons confier presque toute tâche intellectuelle à des modèles d’intelligence artificielle. Pourquoi ne le ferrions nous pas ? L’être humain est ainsi fait : naturellement, il tendra à se diriger vers les solutions les plus faciles qui lui demanderont le moins de ressources cognitives.
Jamais nous n’avons pu apprendre aussi facilement grâce à cette technologie, et c’est bien là le problème. Le processus d’apprentissage suppose un effort, que l’IA évince, puisqu’elle nous évite de manipuler nous-mêmes la matière première du savoir et nous livre un produit fini prémâché, qui n’a jamais fait preuve d’une quelconque construction intellectuelle de notre part. C’est le postulat d’une étude publiée dans la revue PNAS NEXUS le 28 octobre, par deux chercheurs américains en marketing, Jin Ho Yun et Shiri Melumad. Après sept expériences menées sur plus de 10 000 participants, voici ce qu’ils en ont conclu, et nous préférons vous prévenir, ce n’est pas bien réjouissant.
Apprendre sans effort : le vrai piège cognitif
Selon les deux auteurs, les usagers s’informant via l’IA générative ont tendance à développer des connaissances plus superficielles que ceux qui utilisent « à l’ancienne » une recherche web classique. La synthèse d’informations (même si elle peut être correcte, ce n’est pas le sujet) produite par un modèle nous soulage de la partie inconfortable de l’apprentissage, qui nous demande forcément un effort intellectuel plus important. Nous devenons, en théorie, plus efficaces, mais ne comprenons pas ce que nous cherchons : peut-on vraiment parler d’efficacité dans ce cas-là ?
En aucun cas l’étude affirme que l’IA est une mauvaise vectrice d’informations, mais elle transforme l’acte même d’apprendre en consommation d’informations, comme un fast-food trop gras mal digéré. Une recherche web via Google, par exemple, nous oblige à lire plusieurs sources, à s’assurer de leur fiabilité et à les comparer pour éviter qu’elles ne nous donnent des informations contradictoires : des étapes indispensables au bon fonctionnement de notre cognition et de notre compréhension.
Si l’on utilise un chatbot pour le même objectif, il s’acquittera de ces tâches à notre place, ce qui nous installe dans une forme de paresse cognitive. Nous devenons ainsi les récéptacles passifs d’un savoir qui nous infantilise intellectuellement, comme si cette technologie nous déchargeait du lourd fardeau que serait devenu l’acte de penser.
Le constat des deux auteurs n’a pas été établi au doigt mouillé, puisqu’ils ont demandé aux participants de l’étude, durant sept expérience, d’apprendre sur un sujet donné. Un groupe utilisait la recherche Google, l’autre un modèle génératif qui synthésait les informations.
Les chercheurs ont demandé à des lecteurs indépendants d’évaluer les écrits rédigés par chaque participant. Sans savoir quel outil avait été utilisé, les relecteurs donnaient toujours les meilleures notes aux textes issus d’une recherche classique. Pire encore : quand les deux groupes recevaient exactement les mêmes informations (pour éviter que l’IA soit pénalisée, ce qui aurait biaisé le résultat), les utilisateurs de chatbot produisaient toujours des réponses moins pertinentes.
Que nous montre, au fond ce protocole et ces résultats ? Que la compréhension n’est jamais le fruit du savoir brut, mais de l’effort que l’on investit pour le transformer en contenu intelligible.
L’IA, un outil à bannir ?
En aucun cas cette étude ou nous-mêmes ne diabolisons les LLM, qui restent, quoiqu’on en dise, de formidables outils à condition qu’ils soient bien utilisés. Il nous faut simplement avoir l’honnêteté d’admettre que ces systèmes automatisés n’ont d’intelligence que le nom, ils n’ont pas d’intérirorité, ce sont des perroquets algorithmiques qui recyclent des mots.
Jamais ils ne remplaceront l’acte de penser, et si nous continuons à leur confier les premières étapes de notre raisonnement (un ensemble de compétences que l’on apprend autour de 5 à 8 ans), notre rapport à l’information s’étiolera inévitablement.
L’essor d’Internet dans les années 1990 et 2000 avait provoqué, dans certains cercles intellectuels, des réticences similaires. D’aucun y percevaient déjà une menace pour la qualité de la connaissance et de l’apprentissage, mais nous sommes finalement restés acteurs de notre propre savoir et le Web a provoqué de multiples révolutions en accompagnant la création d’une culture numérique extraordinaire.
Depuis la colonisation de l’IA dans notre vie quotidienne, les acteurs de la tech nous ont mis un autre contrat entre les mains : celui du savoir clé en main. Comme l’explique Gaspard Koenig dans son ouvrage La Fin de l’individu : « Le plus grand danger n’est pas l’IA. C’est nous-mêmes […] L’IA est notre lit de Procuste, ce brigand mythologique qui raccourcissait les membres de ses hôtes pour les adapter à la taille de son lit […] Nous ne devons pas tempérer notre langage […] ratiboiser nos ambitions, pour rentrer dans le lit à taille unique des algorithmes ». Le lit de Procuste était confortable, car standardisé, mais la standardisation de la pensée est un confort qui pourra, à terme, nous coûter très cher. Beaucoup s’y glissent déjà avec plaisir, et il n’y a rien de plus redoutable qu’un piège auquel on consent avec enthousiasme
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.