Passer au contenu

Quand l’intelligence artificielle influence discrètement nos opinions

Utiliser un bot d’intelligence artificielle comme ChatGPT pour rédiger un e-mail ou une présentation fait désormais presque partie du quotidien. Mais des études récentes montrent que l’utilisation de l’IA dans la rédaction peut modifier subtilement nos opinions… sans même que nous en soyons conscients.

L’une de ces études, menée par des chercheurs à travers le monde, a montré que lorsqu’on demandait aux participants d’utiliser une IA pour les aider à écrire un essai, cette IA pouvait les orienter soit en faveur, soit contre un point de vue particulier, selon le biais de l’algorithme. Plus surprenant, après l’exercice cette expérience a également eu une influence mesurable sur les opinions des testeurs concernant le sujet traité. « Vous ne savez peut-être même pas que vous êtes influencé », déclare Mor Naaman, professeur au département des sciences de l’information de l’Université Cornell (New York) et auteur principal de l’étude. Il nomme ce phénomène « persuasion latente ».

Outil de productivité ou de manipulation subtile ?

L’intelligence artificielle, tout en nous rendant plus productifs, semble également capable de modifier nos opinions de manière subtile et imprévue. Cette influence s’apparente plus à la manière dont les humains se persuadent mutuellement par la collaboration et les normes sociales, plutôt qu’à l’influence des médias de masse et des réseaux sociaux à laquelle nous sommes habitués.

Les chercheurs qui ont mis au jour ce phénomène estiment que la meilleure défense contre cette nouvelle forme d’influence psychologique est de sensibiliser le plus grand nombre de personnes à son existence. À long terme, d’autres défenses, telles que l’obligation de transparence sur le fonctionnement des algorithmes d’IA (et les biais humains qu’ils imitent) imposée par les régulateurs, pourraient s’avérer utiles.

Dans un futur proche, les gens pourraient choisir les IA à utiliser, au travail comme à la maison, en fonction des valeurs exprimées dans les réponses que l’IA donne. Et certaines IA pourraient avoir différentes « personnalités », y compris des orientations politiques. Par exemple, pour rédiger un e-mail à vos collègues d’une organisation environnementale à but non lucratif, vous pourriez utiliser une IA hypothétiquement appelée ProgressiveGPT. Elon Musk a d’ailleurs annoncé le développement de TruthGPT, un bot avec un modèle de langage moins contrôlé. Politiquement, une offre adaptée à tous les points de vue va sans doute émerger avec les futures échéances électorales.

D’autres utilisateurs pourraient mélanger et assortir les traits et les points de vue dans leurs IA choisies, qui pourraient un jour être personnalisées pour imiter de manière convaincante leur style d’écriture.

Par extension, à l’avenir, les entreprises et autres organisations pourraient proposer des IA construites de toutes pièces pour différentes tâches. Une personne travaillant dans les ventes pourrait utiliser un assistant IA conçu pour être plus persuasif, appelons-le SalesGPT. Une personne travaillant dans le service à la clientèle pourrait utiliser un assistant formé pour être particulièrement poli, nommons-le SupportGPT…

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : WSJ

1 commentaire
  1. J’ai jamais vu une “intelligence” se tromper autant et réussir a faire gober à une bande de… que c’est une parole divine.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *