Pourquoi le génial générateur de texte d’OpenAI créé-t-il la polémique ?

GPT-3 n’en finit plus de faire parler depuis son passage en bêta il y a quelques temps. Aussi impressionnant qu’inquiétant, le générateur de texte d’OpenAI soulève de très nombreuses questions techniques, mais également sociétales et éthiques.

© Franki Chamaki – Unsplash

L’intelligence artificielle commence à faire son chemin dans la vie de tous les jours, dans des domaines divers et variés comme le traitement de l’image. Dans les labos de recherche et les entreprises, elle est utilisée soit en tant qu’outil, soit à des fins exploratoires, avec parfois des résultats spectaculaires à la clé. Et s’il y a bien une entreprise qui symbolise cet aspect à la perfection, c’est certainement OpenAI. L’entreprise fondée, entre autres, par Elon Musk en 2015 est devenue coutumière des coups d’éclat avec plusieurs projets très médiatisés, avec des débouchés très concrets et des résultats souvent assez impressionnants. Et on peut affirmer sans trop de risques que ce n’est pas son dernier bébé GPT-3 qui va inverser cette dynamique, bien au contraire.

GPT-3, pour Generative Pre-trained Transformer-3, est la dernière itération de l’un des projets les plus excitants, mais aussi les plus clivants d’OpenAI. La raison d’être de cette IA qui s’entraîne à partir du contenu disponible sur le web ? Générer du texte, sur tout, n’importe quoi, et dans n’importe quel style. Cette dernière mouture, âgée d’à peine trois mois, vient tout juste d’entrer en bêta privée et quelques heureux élus de l’industrie ont pu commencer à jouer avec l’API. Le concept est simple : fournissez ou non des instructions quelconques (ton, contexte, nom de l’auteur, style, années…), et GPT-3 vous recrachera un texte correspondant. Et le moins que l’on puisse dire, c’est que les premiers retours sont carrément bluffants.

Commençons par le blog de Gwern Branwen, (en anglais), qui regorge d’exemples variés et assez impressionnants, qui vont de la fiction au dialogue. Dans ce bel exemple, Mario Klingermann a simplement fourni le nom d’un auteur imaginaire, la première lettre du texte et un titre… et le système a répondu avec une drôle de mini-histoire (disponible en entier ici) semi-philosophique sur les réflexions d’un Londonien de 1897 sur Twitter.

Utile ? Certainement pas. Cohérent et très impressionnant ? Oh que oui ! Certains exemples de niche sont même particulièrement fascinants : l’auteur lui a par exemple demandé d’imaginer à quoi pourrait ressembler un futur changelog (la liste des changements apportés par les développeurs dans un nouveau patch)  de Dwarf Fortress ! Un exemple qui illustre cependant bien la flexibilité rédactionnelle de l’outil. Sur la base d’un système comme celui-ci, on peut tout à fait imaginer que certains articles de presse strictement factuels, comme le compte-rendu d’un match de football ou d’un procès, puissent être produits par de tels systèmes. C’est une piste déjà largement explorée, et des exemples comme celui-ci nous en rapprochent un petit peu plus chaque jour.

Le contenu textuel, mais pas seulement

Mais souvenez-vous : GPT-3 est un générateur de texte, au sens le plus général du terme. Cela signifie qu’il peut écrire des phrases, comme nous l’avons vu plus haut… mais pas seulement. Le développeur web Sharif Shameem a par exemple programmé et publié un exemple particulièrement phénoménal à partir de l’API d’OpenAI : entrez simplement une description verbale d’une interface web souhaitée… et ce générateur produira le code correspondant (JSX en l’occurrence). Autant vous prévenir tout de suite, si vous avez déjà mis les mains dans la programmation web auparavant, ces deux minutes de vidéo pourraient bien bloquer votre mâchoire en position ouverte pendant quelques temps. Entrez simplement une description verbale d’une interface web souhaitée, et en moins de temps qu’il n’en faut à un webdesigner pour dire “Ils nous volent not’ travail!”, le système permet ainsi de générer le code correspondant à un texte, un bouton en forme de pastèque, une bannière arc-en-ciel, ou tout ce que votre esprit pourrait imaginer…

A partir de là, les limites s’envolent. On peut facilement imaginer qu’un tel outil serait capable de générer différentes grammaires pour effectuer de la génération procédurale, décoder des langages encore mystérieux, imaginer de nouveaux langages de programmation… de la poésie aux chansons en passant par les discours ou les épitaphes, tous les fantasmes textuels sont autorisés !

Des inquiétudes vieilles comme l’IA

En partant de ces constats, on pourrait penser que tout le monde serait unanime et approuverait ces démarches sans réserve. Mais ce n’est pas le cas, loin de là; aujourd’hui, de plus en plus de voix s’élèvent pour faire part de leur inquiétude vis-à-vis de ces technologies, et pour demander davantage de contrôle. A commencer par… Elon Musk lui-même, pourtant perché tout en haut de l’organigramme d’OpenAI, qui n’y va pas de main morte avec son “tact” légendaire.

Le principal souci, c’est que comme tous les modèles hautement autonomes, OpenAI produit parfois du contenu incohérent, ou dont la logique échappe en tout cas à notre esprit humain à première vue. Pour estimer l’ampleur du phénomène, le mathématicien et chercheur en informatique Kevin Lacker s’est livré à un petit jeu : faire passer un mini-test de Turing (qui consiste à mettre un humain en confrontation verbale à l’aveugle avec un ordinateur et un autre humain, pour juger de son “humanité” )  à GPT-3. Et ses conclusions sont pour le moins troublantes et peu claires, mais peu surprenantes : GPT-3 est très fort pour synthétiser du contenu factuel, c’est un fait. Mais comme on peut s’y attendre, dès que le sujet nécessite de la nuance ou du bon sens, l’équation devient beaucoup, beaucoup plus compliquée.

L’autre problème qui fait réagir autant de gens sur le dernier-né d’OpenAI trouve ses origines dans la même ressource qui fait sa force : Internet. Comme mentionné plus haut, GTP-3 se gave de milliards de lignes de texte glanées sur la toile pour progresser, mais comme chacun le sait, le Web est tout sauf un sanctuaire et on y trouve légion de commentaires racistes, sexistes ou homophobes. Résultat : lorsqu’on propose au générateur des mot-clés comme “noir”, “femme”, “juifs”, ou “holocauste”, GPT-3 a vite fait de générer des remarques inacceptables.

Autant de points qui permettent d’apprécier tout le chemin qui reste à parcourir avant de parvenir à créer une “vraie” intelligence artificielle dite forte, capable de raisonner, ressentir et réagir avec des émotions et des réflexes qui restent aujourd’hui propres à l’humain, bien loin des simples algorithmes de machine learning sur lesquels elle repose.

« It’s not a bug, it’s a feature »

Si ces questions sont aussi prépondérantes, c’est pour deux raisons. La première, c’est qu’à long terme, cette technologie est immanquablement destinée à finir sur le marché d’une façon ou d’une autre. Et cela va sans dire que la désinformation sur le web est déjà bien assez présente, et que l’on se passerait volontiers des services d’une IA journalistique raciste et complotiste. Ces biais potentiels sont d’autant plus inquiétants que l’entreprise s’est fixé un but ultime : celui de concevoir une intelligence artificielle dite générale (AGI). Contrairement à l’algorithme qui améliore les photos de votre smartphone, il ne s’agirait pas d’un simple morceau de code entraîné au préalable pour accomplir une tâche très particulière. A la place, les chercheurs essayent de reproduire l’intelligence humaine dans son intégralité, avec la capacité d’appréhender, de comprendre et d’apprendre les concepts humains : on parle parfois d’ « IA forte« . Un tel système aurait de nombreux avantages, au-delà du simple exploit conceptuel d’avoir recréé un petit esprit humain. En théorie, cela permettrait par exemple de révolutionner un champ du machine learning  où l’on demande à un algorithme d’organiser, interpréter et utiliser des données brutes tout seul, sans intervention humaine.

Mais ce faisant, nous pourrions ainsi donner lieu à des IA fortes intrinsèquement racistes, voire pire encore : la SF s’est déjà largement chargée de faire l’inventaire des scénarios catastrophe possibles et nous ne nous attarderons pas là-dessus. En revanche, presque tous les chercheurs sur le sujet s’accordent à dire qu’il s’agit en substance de “bugs”, qu’il serait possible de résoudre pour éviter ces biais. Mais est-ce vraiment le cas ? Il existe en informatique un dicton sarcastique, utilisé par les développeurs en guise d’auto-dérision ou de moquerie: “ce n’est pas un bug, c’est une fonctionnalité”. Et dans le cadre de l’IA forte, on pourrait se demander si ce n’est pas également le cas. Car cette IA est construite sur notre Internet, en parcourant notre contenu, écrit avec notre langage et issu de nos cerveaux… Dès lors la solution sera peut-être de limiter les cas où l’IA a pour consigne de nous imiter… ou, encore mieux, de modifier nos comportements afin de lui fournir un modèle plus honorable.