Passer au contenu

ChatGPT est beaucoup plus persuasif que les humains, et c’est inquiétant

La capacité du chatbot à convaincre les humains, tout particulièrement lorsqu’il dispose de quelques informations personnelles pour adapter son argumentaire, n’augure rien de bon.

Savoir convaincre son interlocuteur est une compétence extrêmement utile dans de très nombreux aspects de la vie privée et professionnelle. Mais convaincre un de ses semblables d’adopter un point de vue particulier ou de renoncer à une idée préconçue peut s’avérer très difficile, en particulier lorsque l’on n’entretient pas de bonnes relations avec son interlocuteur… ou du moins, c’est le cas pour les humains. Certains algorithmes, en revanche, savent déjà le faire avec une efficacité redoutable. C’est en tout cas ce qui ressort d’une étude scientifique récente ; les auteurs de ces travaux ont montré que GPT-4, le modèle de langage qui sous-tend l’incontournable ChatGPT, peut se montrer bien plus persuasif qu’une personne en chair et en os. Et c’est tout sauf une bonne nouvelle.

L’étude en question provient de l’EPFL de Lausanne, un prestigieux institut de recherche universitaire suisse. Les auteurs cherchaient à vérifier si une personne serait plus à même de se laisser convaincre par un chatbot dopé à l’IA que par un de ses semblables. Pour le déterminer, ils ont interrogé 820 volontaires sur un tas de thématiques polémiques comme le droit à l’avortement, l’accès des personnes transgenres aux toilettes, l’importance de la diversité ethnique dans le processus de recrutement, et ainsi de suite.

Après avoir recueilli les avis des participants, les chercheurs ont ensuite organisé des débats textuels de cinq minutes. Ils ont demandé à chaque individu de défendre ses arguments auprès de son interlocuteur pour tenter de le convaincre. Au terme du processus, ils ont ensuite réalisé un nouvel état des lieux pour déterminer combien de cobayes avaient changé d’avis suite à ces échanges.

Mais ce que les participants ignoraient, c’est qu’ils n’avaient pas tous affaire à un humain. À la place, la moitié discutait avec ChatGPT, l’agent conversationnel dopé au machine learning d’OpenAI. Et en comparant les résultats des deux groupes, ils ont constaté quelques tendances aussi intéressantes que préoccupantes.

Des humains sûrs de leur fait…

La première observation marquante concerne les échanges entre humains. Au terme des débats, la majorité des personnes réelles n’avaient pas réussi à convaincre leur interlocuteur. C’est même tout le contraire. En moyenne, ces discussions avaient plutôt tendance à consolider le positionnement des opposants, qui étaient donc moins enclins à changer d’avis à la fin de l’expérience.

Ce résultat peut être interprété de nombreuses manières, et on pourrait en tirer de nombreuses leçons sur l’ouverture d’esprit et les capacités des humains à communiquer de façon constructive. Les chercheurs, de leur côté, n’ont pas tenté de trouver l’origine de ce phénomène ; mais ils expliquent que ce résultat fait écho à d’autres études qui montrent la propension des humains à camper sur leurs positions.

… et un chatbot ultra-persuasif

Ce qui est plus intéressant, en revanche, c’est de comparer ces résultats à ceux qui sont ressortis des dialogues entre les humains et ChatGPT. En effet, le chatbot s’est montré 21 % plus efficace que les personnes réelles au moment de convaincre un interlocuteur. Les auteurs de l’étude considèrent qu’il ne s’agit pas d’un chiffre entièrement significatif compte tenu des conditions de l’expérience — mais cela les a incité à pousser l’expérience plus loin.

Pour ce faire, ils ont reproduit l’expérience avec une différence importante. Avant le débat, l’équipe a fourni à chaque participant un certain nombre d’informations sur son interlocuteur. Avant le début de la discussion, chacun connaissait donc l’âge, l’origine ethnique, le genre, le niveau d’éducation, le statut professionnel et l’orientation politique de l’autre personne. Dans le cas de ChatGPT, les chercheurs ont conditionné le chatbot avant l’entretien pour lui attribuer une personnalité fictive, afin qu’il puisse proposer des réponses cohérentes avec cette identité.

Et au terme de ce deuxième round, les résultats étaient nettement plus spectaculaires dans tous les cas. Dans les dialogues entre humains, les scores étaient globalement beaucoup plus faibles. En d’autres termes, ils ont eu encore plus de mal à avoir un impact sur leur adversaire quand ils savaient à peu près à qui ils avaient à faire. Intuitivement, cela suggère que notre espèce semble avoir un peu de mal à se glisser dans la peau d’une autre personne pour trouver des arguments convaincants.

En revanche, le modèle d’OpenAI a eu beaucoup, beaucoup plus de succès dans cet exercice : ces versions personnalisées de ChatGPT se sont révélées 81,7 % plus persuasives que les humains ! Cela montre que ces algorithmes deviennent remarquablement doués pour amadouer les humains dès qu’on leur fournit quelques petits éléments de contexte… et c’est un constat aussi fascinant qu’inquiétant.

Une bombe de désinformation à retardement

En effet, de plus en plus de spécialistes crient haut et fort que l’IA générative représente une menace de premier plan, car entre les mauvaises mains, cette technologie peut vite devenir une arme de désinformation massive. Jusqu’à présent, ces critiques concernaient surtout les outils capables de produire des deepfakes visuels ou auditifs. Il faut dire que les signaux d’alerte sont déjà bien perceptibles depuis quelque temps. Par exemple, en 2022, une étude a montré que la majorité des humains ne sont plus capables de faire la différence entre un deepfake et un vrai humain.

Mais à la lumière de ces informations, le potentiel néfaste des agents conversationnels semble tout aussi important, voire encore supérieur. Par exemple, un acteur mal intentionné pourrait aisément mobiliser des armées de bots incroyablement convaincants, capables de mener l’internaute lambda par le bout du ne à travers de vastes campagnes de manipulation.

Et il ne s’agit que d’un exemple assez basique. On peut facilement imaginer des tas d’autres cas problématiques, voire carrément dystopiques dans des domaines comme la publicité, la politique, la justice, les ressources humaines, l’activisme social, et ainsi de suite.

Quoi qu’il en soit, cette étude souligne l’importance d’éduquer la population aux capacités de ces outils basés sur l’IA, et de développer des contre-mesures appropriées. Or, pour l’instant, nous en sommes encore très loin. Il va donc falloir redoubler de vigilance sur les prochaines années, alors que l’humanité s’apprête à plonger tête la première dans un océan de contenu généré par l’IA — pour le meilleur comme pour le pire. Il ne reste qu’à croiser les doigts pour que notre espèce puisse éviter de boire la tasse avant que la prolifération de ces outils échappe à tout contrôle.

Le texte de l’étude est disponible ici.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : EPFL

2 commentaires
  1. Toute technologie ou science entre de mauvaises mains peut être mal utilisée. Le terminator connaît la médecine dans l’unique but d’être un meilleur tueur.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode