Passer au contenu

OpenAI a une nouvelle stratégie étonnante pour dompter les super-IA du futur

Pour s’assurer que les super-IA de demain filent droit, le leader mondial de l’intelligence artificielle mise sur… un autre système IA.

Ce printemps, pas moins de 1300 personnalités, dont Elon Musk, ont signé une grande pétition qui réclamait une pause dans certains aspects de la recherche en intelligence artificielle, par principe de précaution. Force est de constater qu’elle n’a pas tout à fait eu les effets escomptés. C’est en partie dû au fait que certains des moteurs les plus importants de cette niche technologique n’ont pas souhaité signer ce texte.

On pense en particulier à Sam Altman, le PDG d’OpenAI à qui l’on doit le modèle GPT et ses dérivés. Pourtant sollicité à ce sujet, il a refusé de signer la lettre ouverte. Il avait défendu son positionnement dans une interview au Business Insider en avril dernier. Pour lui, le texte était bancal et manquait cruellement de « nuances techniques ».

Ce positionnement lui a attiré les foudres de certains observateurs, qui y ont vu une excuse pour échapper à ses responsabilités. Mais désormais, OpenAI semble vouloir prendre l’algo par les cornes : Ilya Sutskever, l’un des co-fondateurs de la firme, vient de prendre la tête d’une sorte de task-force dédiée au contrôle des « systèmes IA superintelligents ».

Veiller à « l’alignement  » des systèmes IA

L’information est tombée dans un billet de blog repéré par TechCrunch. Dans le texte, Sutskever et son collègue Jan Leike suggèrent que les premiers systèmes IA dont “l’intelligence” dépasserait celle des humains pourraient arriver avant la fin de la décennie. Et si ce pronostic se concrétise, il serait assez naïf de partir du principe que ces algorithmes vont forcément œuvrer au bien-être de notre espèce.

En partant de ce constat, Sutskever explique qu’il faut prendre les devants en développant des façons de contrôler et de restreindre un tel système. « Actuellement, nous n’avons pas de solution concrète pour contrôler une potentielle IA superintelligente, pour l’empêcher d’échapper à tout contrôle », expliquent-ils.

Ils évoquent notamment le terme d’alignement, qui désigne le fait d’entraîner une IA de façon à ce qu’elle évolue dans un cadre bien précis défini par les humains. « Nos techniques actuelles pour aligner l’IA reposent sur notre capacité à la superviser directement », expliquent-ils. « Mais les humains ne seront pas capables de le faire de façon fiable avec des systèmes beaucoup plus intelligents qu’eux », préviennent-ils.

Pour se préparer et se donner les moyens d’intervenir si la situation l’exige, les deux auteurs vont diriger une nouvelle équipe de « superalignement ». Et cette dernière aura accès à des ressources très, très importantes. Le texte explique que 20 % de la puissance de calcul totale d’OpenAI sera réservée exclusivement à ces travaux. De plus, certains des plus grands cerveaux de la firme ont été assignés à cette nouvelle division.

Combattre le feu par le feu

Ensemble, ils auront la lourde tâche de développer des contre-mesures pour faire marcher une éventuelle super-IA à la baguette d’ici quatre ans au maximum. Et pour y parvenir, ils prévoient de concevoir… un nouveau système IA. Une façon de combattre le feu par le feu, en somme. Ironie quand tu nous tiens…

Une IA qui contrôle une autre IA
© MidjourneyAI – Journal du Geek

Sutskever et Leike décrivent ce système comme un « chercheur automatique de niveau humain spécialisé dans la recherche sur l’alignement ». Son objectif sera d’entraîner de nouveaux modèles IA en se basant sur les directives des humains.

Cela implique de lui apprendre à évaluer ses congénères. Il s’agit donc d’une sorte d’interprète, ou plutôt de médiateur qui sera chargé de faire le lien entre les humains et ces modèles IA. Au bout du processus, ce système sera chargé de développer de nouvelles techniques d’alignement en toute autonomie.

« Plus nous avancerons sur ce sujet, plus l’IA pourra prendre le relais sur nos travaux d’alignement. À terme, elle pourra concevoir, implémenter, étudier et développer des techniques d’alignement bien meilleures que celles dont nous disposons actuellement », expliquaient les auteurs dans un autre billet de blog.

« Ce système travaillera main dans la main avec l’humain pour s’assurer que ses propres successeurs seront mieux alignés avec les humains. Les chercheurs en chair et en os concentreront leurs efforts sur la supervision des travaux de recherche conduits par l’IA au lieu de les produire eux-mêmes », précisent-ils.

Révolution méthodologique ou fausse bonne idée ?

Cette stratégie est-elle seulement viable ? Difficile à dire en l’état. Leike, Schulman et leurs collègues reconnaissent en tout cas qu’elle est loin d’être infaillible. Ils reconnaissent ouvertement que dans le pire des cas, cela pourrait « amplifier les incohérences, les biais et les vulnérabilités » qui existent déjà dans le monde de l’IA. Mais ils estiment que cette approche mérite au moins d’être explorée.

Même si les têtes pensantes d’OpenAI ont refusé d’apposer leur signature au bas de la lettre ouverte signée par Elon Musk, l’entreprise travaille donc tout de même sur les risques qui y sont évoqués — à sa manière.

Il sera donc intéressant de suivre l’avancement de ces travaux. Si ces premières expériences en la matière s’avèrent concluantes, elles pourraient faire émerger de nouvelles normes dans la façon d’encadrer ces technologies révolutionnaires. Mais dans le cas contraire, ce sera retour à la case départ, et il faudra développer de nouvelles stratégies pour plier les systèmes IA à notre volonté.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : OpenAI

1 commentaire
  1. IA devrait signifier “Intuition Artificielle” au vu des découvertes des neurosciences sur le fonctionnement de l’intuition humaine.
    Ceci dit l’artificielle est une boite noir où “il se passe des choses”, et il est impossible de prédire ce qui en sortira ni ses possibilités de défaillance. Un exemple parmi d’autres est un post-it collé sur un panneau routier de signalisation et qui rend une AI de conduite autonome inopérante.
    C’est pourquoi les spécialistes essayent depuis longtemps de concevoir des logiciels qui permettraient de “valider” une IA, de pouvoir circonscrire ses réponses fantasmagoriques à un très faible pourcentage.
    Seuls les commerciaux avides d’en tirer des bénéfices et les anthousiates qui rêvent éveillés peuvent (faire semblant de) penser que IA= intelligence et que c’est quelque chose de sûr.
    Les auteurs d'”articles” sur tous les sites devraient prendre leurs responsabilités et arrêter d’encourager ce rêve qui pour l’instant n’a aucune réalité.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode