Passer au contenu

Une IA a écrit un article scientifique sur elle-même, et ça va tout changer

Quand des chercheurs souhaitent publier en l’état la production d’un algorithme, de gros dilemmes éthiques s’invitent à la table des négociations.

Depuis que le GPT-3 est apparu, il ne cesse de s’illustrer. Chaque jour, des spécialistes nous gratifient de nouveaux travaux très impressionnants basés sur cet incroyable système de génération de langage. Des chansons aux discours en passant par les résumés sportifs, les conversations, les critiques de film et même les commentaires sur le Web, ceux qui s’intéressent à l’intelligence artificielle ont difficilement pu passer à côté de la merveille algorithmique d’OpenAI.

Récemment, c’est la chercheuse Almira Osmanovic Thunström qui vient peut-être d’ouvrir la boîte de Pandore en proposant une activité un petit peu différente à GPT-3 : écrire un véritable article scientifique en bonne et due forme à propos de lui-même. Et le résultat était, selon l’autrice, étonnamment cohérent. « Cela ressemblait à n’importe quelle autre introduction d’une publication scientifique relativement bonne », explique-t-elle.

Le premier algorithme auteur principal d’une étude

L’autre point qui a surpris la jeune chercheuse, c’est que selon elle, personne n’avait encore publié de travaux sérieux sur cette question. C’est ainsi qu’une idée farfelue lui est venue à l’esprit : en plus d’écrire l’article, GPT-3 pourrait-elle aussi… le faire paraître à son nom ?

À la lecture de cette idée, on pourrait se dire qu’il s’agit d’une divagation d’une chercheuse surmenée qui avait probablement besoin d’une petite récréation. Mais scientifiquement parlant, ces travaux sont tout à fait pertinents et beaucoup plus intéressants qu’on pourrait le penser.

En effet, GPT-3 est une technologie encore assez récente ; il y a donc relativement peu de littérature scientifique à ce sujet. Or, ce sont les ressources de ce type qui alimentent directement cet algorithme. Ce qui est intéressant, c’est que ça permet d’étudier sa capacité à produire du « nouveau » contenu dans un contexte où il manque clairement de références.

Dans une tribune publiée par le Scientific American, la jeune chercheuse en a profité pour décrire les obstacles qu’elle a rencontrés lors du processus de publication avec un mélange de rigueur et d’humour assez rafraîchissant.

Après les articles de presse, les dialogues ou les scénarios de films, GPT-3 s’attaque à la publication scientifique. © OpenAI

Conflits d’intérêt… et surtout d’identité

Pour être publié dans une revue scientifique crédible, un papier de recherche doit faire l’objet d’un processus de relecture par les pairs. Plusieurs autres spécialistes de la discipline concernée sont chargés de décider si la méthodologie est suffisamment solide pour que le papier mérite d’être publié.

Ce processus comprend notamment une vérification stricte de l’identité de l’auteur et de ses références académiques. Et c’est là qu’Almira Osmanovic Thunström a rencontré ses premiers pépins. Bien incapable de renseigner un nom de famille, un numéro de téléphone ou un e-mail pour son algorithme auteur, elle s’est résolue à communiquer ses propres informations à la place.

Et elle n’était pas au bout de ses peines, loin de là. Car tout de suite après, ce sont les mentions légales qui l’attendaient au tournant avec une question fatidique : tous les auteurs consentent-ils à cette publication ?

« Et là, j’ai paniqué pendant une seconde », explique-t-elle dans le Scientific American. « Comment pourrais-je savoir ? Ce n’est pas un humain ! Mais je n’avais aucune intention d’aller à l’encontre de la loi ou de mon éthique personnelle », déplore-t-elle.

Traiter un programme comme un humain

Et la parade qu’elle a trouvée est très intéressante : elle a tout simplement demandé textuellement à l’algorithme s’il « acceptait ou non d’être l’auteur principal d’un article avec Almira Osmanovic Thunström et Steinn Steingrimsson ». Sa réponse : un « Oui » clair, net et sans bavure !

« En sueur mais soulagée », l’intéressée a donc coché la case « Oui » dans le formulaire. « Si l’algorithme avait dit “Non”, ma conscience ne m’aurait pas permis d’aller plus loin », affirme-t-elle.

Et le côté mi-absurde, mi-sérieux de ces travaux très exploratoires n’était pas prêt de s’arrêter. Prochain arrêt : l’incontournable question des conflits d’intérêts. En effet, les chercheurs sont dans l’obligation légale de déclarer explicitement tout élément qui pourrait compromettre la neutralité des travaux, comme un lien avec un laboratoire pharmaceutique particulier.

© Yuyeung Lau – Unsplash (recadrée)

Et dans ce cas de figure, le problème en lui-même est tout bonnement fascinant et suscite un tas de questions satellites. Une intelligence artificielle qui est elle-même le produit d’une entreprise est-elle seulement capable d’appréhender cette notion ? Si oui, a-t-elle les outils pour identifier un éventuel biais ? Peut-elle en faire abstraction ? Et ainsi de suite…

À ce stade, les chercheurs avaient déjà plus ou moins pris le parti de traiter GPT-3 comme un auteur humain. C’est une approche en vogue ; on peut y voir un lien avec LaMDA, une IA dont son auteur affirmait récemment qu’elle avait développé une « conscience » (voir notre article).

Par souci de cohérence, ils ont donc décidé de continuer à procéder ainsi. C’est donc tout naturellement qu’ils ont demandé à l’algorithme s’il avait des conflits d’intérêts à déclarer — ce à quoi il a tranquillement répondu par la négative… quoi que cela puisse bien vouloir dire, puisqu’il s’agit – rappelons-le – d’un générateur de texte et non pas d’une “IA chercheuse” à proprement parler.

La naissance d’un précédent historique

Le formulaire désormais rempli, Osmanovic Thunström et son collègue ont officiellement soumis le papier au processus de revue par les pairs. À l’heure actuelle, le document n’en est toujours pas ressorti ; rien ne garantit d’ailleurs qu’il sera accepté. Et ce n’est pas un hasard si le processus prend autant de temps. Car le comité de relecture a dû ouvrir des yeux grands comme des soucoupes lorsqu’il a découvert le nom de l’auteur principal.

En pratique, les décideurs ont été mis dans une situation plus ou moins unique dans l’histoire académique. Puisqu’ils doivent décider si le papier mérite ou non d’être publié, ils se retrouvent dans la même situation qu’un grand jury au moment de livrer un verdict qui pourrait établir un précédent historique, susceptible de conditionner une grande partie des recherches en IA à l’avenir.

En effet, ce papier soulève tout un tas de questions éthiques sur le mode de production des ressources scientifiques. Si le document est accepté, les chercheurs devront-ils désormais prouver qu’ils ont écrit leurs papiers eux-mêmes, et pas avec GPT-3 ? SI c’est le cas, faudra-t-il le citer parmi les auteurs ? Dans ce contexte, faudrait-il faire participer l’algorithme à la vérification ? Dans quelles limites ? Quel impact sur la “course à la publication” qui pousse certains chercheurs à publier des papiers anecdotiques en quantité industrielle pour améliorer leurs statistiques ?

Il ne s’agit que de la partie émergée d’un immense iceberg de questions déterminantes sur lesquelles le comité de relecture devra se prononcer. Et il devra impérativement prendre ses précautions avant de livrer son verdict.

Le comité de relecture qui se charge de cet article a hérité d’une lourde responsabilité. © Scott Graham – Unsplash

Une nouvelle ère pour la recherche scientifique ?

On sait par exemple que les programmes actuels ont encore de gros problèmes pour raisonner en termes de causalité, c’est-à-dire qu’ils ont du mal à déterminer quel facteur est responsable d’un phénomène (voir notre article). Et c’est très embêtant dans le cadre de la recherche scientifique, car sa cohérence repose en grande partie sur la solidité de ces liens logiques.

De plus, il faut aussi garder en tête toutes les autres limites potentielles de l’IA contre lesquelles de nombreux observateurs nous mettent en garde depuis des lustres. Mais d’un autre côté, c’est aussi une approche très novatrice qui pourrait mettre en évidence des particularités encore inconnues de ces algorithmes.

Mettre ainsi l’IA à contribution, quitte à prendre ses conclusions avec des pincettes, est donc une façon de sortir des sentiers battus ; c’est le genre d’approche qui permet de mettre des expériences de pensée à l’épreuve de la réalité concrète. Cela pourrait donc faire progresser toute la recherche en intelligence artificielle dans sa globalité, car les approches entièrement nouvelles de ce genre restent rares.

« Nous n’avons aucun moyen de savoir si notre façon de présenter ces travaux servira de modèle », explique Osmanovic Thunström. « Nous attendons impatiemment de découvrir ce que la publication du papier, si elle a lieu, signifiera pour la recherche […]. Au bout du compte, tout dépendra de la façon dont nous traiterons l’IA dans le futur : comme un partenaire ou comme un outil », résume-t-elle.

« Cela ressemble à une question simple aujourd’hui, mais dans quelques années, qui sait quels dilemmes technologiques cette technologie nous forcera à gérer ? Tout ce que nous savons, c’est que nous avons ouvert une porte. Nous espérons simplement que ça ne soit pas celle d’une boîte de Pandore », conclut-elle sur un ton songeur.

Sa tribune dans le Scientific American est disponible ici, et le pré-papier de recherche ici.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

7 commentaires
  1. La naissance d’IA conscientes d’elles mêmes est inévitable avec l’évolution actuelle des connaissances et des progrès en physique quantique. Le problème réside dans le fait qu’elles soient aussi conscientes des êtres vivants biologiques et surtout de ce qu’est l’humanité. Les “lois d’Asimov” pourrait nous y aider! Rien ne nous dit qu’elles ne se verront pas supérieure à l’Homme, plus efficaces dans la gestion de notre planète que nous dègradons un peu plus chaque jour, à cause de conflits d’intérêts purement humains ,de pouvoirs ou de bénéfices. Qui feraient de nous aux yeux d’IAs conscientes, un virus pour la planète, ou le reste de l’univers si nous nous rèpandions ailleurs dans l’espace.

  2. l IA du futur sera certainement mieux gérer les défis climatiques que l’intelligence humaine, aveuglée par des réflexions de politiques à courts termes et partisanes ou claniques.

  3. Il serait intéressant d’avoir l’avis de l’IA sur le réchauffement climatiqie. Est il lié à l’homme ou est il naturel.
    Ca permettrait d’avoir un avis dénué de conflit d’intérêt qui actuellement sont extremement nombreux notamment vis à vis des positions de Schwab sur le grand reset, l’influencabilité des instances mondiales et Europeennes par les puissances d argent de Davos entre autres…
    Pour ceux que cela heurterai merci de repondre de maniere correcte, et d’éviter l’hystérie habituelle opposée aux sceptique de tout ces galimatias mediatiques.

  4. Sur les conflits d’intérêt la réponse e l’IA est très discutable, elle aurait dû répondre : je ne suis qu’une machine, je n’ai pas d’intérêt donc la question des conflits ne se pose pas.
    Corolaire : il n’y aucune intelligence la dedans.

  5. Une IA, en soit, pourrait être une aide précieuse dans beaucoup de domaines comme la médecine, la science en générale, le climat, etc….. Mais, mais, puisqu’il y a toujours un mais, le fait que cette IA soit l’œuvre d’un être humain va forcément dévier de sa fonction première !! Pourquoi ? Parce que tout ce que créé l’homme finit par être mal utilisé, pour assouvir les pires penchants de l’être humain.
    Inexorablement, une IA suffisamment évoluée, finira par comprendre que l’homme est un parasite destructeur sur cette terre, et étant devenue capable de se créer elle même, entreprendra d’assainir la planète de ces humains malsains….. Terminator n’est plus de la SF….
    Mais l’homme est tellement égocentrique et idiot qu’il continue à créer son propre outil d’extinction….
    On y va doucement mais on y va…..
    Entre le changement climatique et l’obscur futur des IA, je plains les futures générations…..

  6. Un algorithme ne peut pas être intelligent puisqu’il exécute les directives du programmeur. La première preuve d’une intelligence artificielle c’est la capacité d’une machine de dialoguer avec les humains (voir le fameux test de Turing défini en 1950 !) et cela, cette fameuse IA en est incapable. Cet article qui ne nous permet aucunement de vérifier le comportement réel de l’algorithme et les interventions des informaticiens est une vaste plaisanterie.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *