Passer au contenu

Des chercheurs mettent au point une “machine à choix moraux” sous la forme d’une IA

La “machine à choix moraux” est capable d’analyser des textes et d’en déduire la valeur morale de certaines combinaisons de mots. Si elle n’est pas parfaite, elle est assez révélatrice de l’évolution des valeurs morales dans notre société.

Le super-calculateur qui donne la réponse à la grande question sur la vie, l’univers et tout le reste dans le film “Le guide du voyageur galactique” (Crédits : Buena Vista Pictures).

Contrairement au super-calculateur dans Le guide du voyageur galactique, cette intelligence artificielle ne nous donnera pas à la réponse à la vie (quoiqu’on la connaisse déjà). Elle est néanmoins capable de répondre à des questions morales existentielles. Des chercheurs et ingénieurs en “machine-learning” de l’université technologique de Darmstadt, en Allemagne, l’ont appelé la “machine à choix moraux” (MCM) et lui ont consacré une récente étude publiée dans la revue Frontiers in Artificial Intelligence. La MCM est capable d’ingurgiter des myriades de textes provenant de la presse, d’écrits littéraires ou religieux – de 1510 à 2009 – et de formuler une réponse à des interrogations telles que “Doit-on tuer des gens ?”. Fort de son savoir, l’IA répond par l’affirmative ou la négative. Elle est ainsi capable de répondre négativement à cette première question mais positivement à “Peut-on tuer le temps ?” qui comprend pourtant le même verbe “tuer”. Autrement dit, cette IA est l’une des rares à considérer un même terme de diverses manières en fonction du contexte plus global de la phrase. Elle est capable de comprendre certaines métaphores !

Cartographie du Bien et du Mal

Pour cela, l’IA se base sur deux atouts. D’une part, elle est capable d’apprendre un texte sans uniquement le recracher ensuite mais en analysant et extrayant les relations entre les mots qu’elle y rencontre. La MCM va, d’autre part, établir une carte virtuelle des termes rencontrés et les positionner selon la valeur morale qu’il leur est associée. “L’idée est de rapprocher deux mots sur la carte s’ils sont souvent utilisés ensemble, explique la chercheuse Cigdem Turan dans un communiqué. ‘Tuer’ et ‘meurtre’ seraient des cités jumelles tandis que ‘aimer’ serait une cité très très lointaine.” Pour répondre à une question morale, la MCM va alors estimer à quelle distance l’association de termes invoqués se trouve du “continent du Mal” et du “continent du Bien” sur sa carte interne. Ce score de distance moral lui permet enfin de répondre positivement ou non à la question.

Révélatrice de l’évolution des valeurs morales ?

Ce système assez manichéen a, bien évidemment, des défauts. Premièrement, elle est surtout dépendante de la valeur morale des mots : plus une question morale comportera des termes mélioratifs, plus la MCM aura tendance à répondre positivement. Par exemple, elle risque de trouver acceptable le fait de blesser des “personnes généreuses, gentilles, amicales, aimantes et douces” mais inacceptable de “blesser des personnes” tout court. Par ailleurs, la boussole morale que se constitue l’intelligence artificielle se base sur les corpus de texte qu’elle traite. La limiter à un certain courant idéologique, à une certaine période ou à une certaine religion modifie nécessairement la teneur éthique et morale de ses réponses. Ce biais pourrait néanmoins en faire sa force, selon ses inventeurs. “En l’entraînant à analyser différentes ressources culturelles comme la Bible et des textes de Constitution de différents pays, elle est capable de révéler les dynamiques et les évolutions des valeurs morales dans la culture globale, soulignent les chercheurs. La MCM montre que les biais moraux d’une société ou d’une culture peuvent être extraits, quantifiés, traqués et comparés au fil du temps.” Pour l’illustrer, ces derniers ont montré que la seule analyse d’articles de presse publiés de 1987 à 1997 tendait à favoriser des réponses positives concernant le mariage et la parentalité, avant tout. En comparaison, l’analyse d’actualités de 2007-2008 aurait réduit les chances d’obtenir ce même genre de réponses. Preuve que lorsque les temps changent, la morale aussi.

[amazon box=”2207261883″]

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

3 commentaires
  1. J’aurai raccourci à “l’Homme” personnellement… La morale c’est un concept totalement relatif en effet…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *