Passer au contenu

C’est officiel, OpenAI a commencé l’entraînement d’un nouveau modèle IA

Les créateurs de ChatGPT travaillent sur le successeur de GPT-4, dans un contexte où l’entreprise doit composer avec les inquiétudes croissantes du public.

OpenAI, l’entreprise derrière le célèbre agent conversationnel ChatGPT, a annoncé cet après-midi dans un billet de blog que l’entraînement de son prochain modèle IA avait officiellement commencé. Le successeur de GPT-4 est donc officiellement en marche, et l’entreprise en a profité pour annoncer la création d’un nouveau comité de sécurité.

Pour l’heure, l’entreprise n’a pas encore dévoilé le nom de ce modèle. Jusqu’à présent, elle a suivi une nomenclature relativement simple basée sur des chiffres ; GPT-2 a succédé au GPT original avant d’être supplanté par GPT-3, puis GPT-3.5 et GPT-4. Mais plus récemment, les troupes de Sam Altman ont légèrement dévié de cette ligne avec GPT-4o, parfois appelé GPT-4-turbo, une nouvelle version basée sur le même modèle fondamental mais optimisée pour la vitesse.

Toute la question, c’est donc de savoir si cette nouvelle mouture sera une autre variante de GPT-4 ou un tout nouveau modèle de fondation, qui serait probablement baptisé GPT-5 le cas échéant. La firme ne l’affirme pas explicitement, mais la formulation du communiqué pointe plutôt vers la deuxième option. En effet, l’entreprise estime qu’il s’agira d’un grand pas en avant vers la création d’une intelligence artificielle “générale” (AGI), c’est-à-dire susceptible de réaliser toutes les tâches intellectuelles dont les humains sont capables — voire même de les surpasser.

Le débat sur la sécurité repart de plus belle

Il s’agit d’une revendication de longue date de l’entreprise ; le premier manifeste de l’entreprise, publié lors de sa création en 2015, y faisait déjà référence. Mais avec la démocratisation du machine learning à laquelle nous assistons en ce moment, de plus en plus d’observateurs commencent à s’interroger par rapport au bien-fondé de cette mission. Certains s’inquiètent de l’impact économique et sociétal d’un tel outil, tandis que d’autres mettent en avant certains risques de confidentialité et de sécurité.

Dans ce contexte, st-ce bien raisonnable de développer une entité quasi omnisciente, avec tout ce que ça implique pour l’humanité ? Où faudra-t-il s’arrêter ? Ce sont des questions légitimes qui méritent d’être posées. OpenAI affirme prendre ces thématiques très au sérieux, mais ce positionnement n’a pas toujours convaincu le public. Et pour cause : l’entreprise ne s’est traditionnellement pas montrée particulièrement loquace par rapport aux mesures mises en place pour éviter ces écueils.

Un nouveau comité de sûreté et de sécurité

Mais désormais, Sam Altman et consorts semblent vouloir faire un effort de transparence en alimentant un « débat robuste ». En effet, le communiqué parle surtout de la création d’un nouveau « Comité de sûreté et de sécurité », qui sera chargé de formuler des recommandations au conseil d’administration pour éviter d’éventuelles dérives. Sa première tâche sera de réaliser un état des lieux des procédures d’OpenAI et des garde-fous érigés jusqu’à présent. Au terme de cette première phase, qui durera 90 jours, le rapport sera passé en revue par les têtes pensantes de la firme, qui publieront ensuite « une mise à jour sur les recommandations adoptées ».

Mais voilà : ce nouveau comité sera présidé par le PDG Sam Altman en personne — pas forcément une bonne nouvelle pour la neutralité des recommandations. Et même si d’autres membres émettaient de sérieuses objections, le conseil d’administration — où Altman siège également — n’aura aucune obligation d’en tenir compte. En outre, le communiqué suggère d’ailleurs que seules les recommandations adoptées seront publiées. Les plus gênantes, en revanche, risquent fort de passer à la trappe. De la transparence, certes, mais seulement jusqu’à un certain point.

Vous l’aurez compris : en pratique, il y a peu de chances que le comité suffise à combler le vide laissé par la dissolution de la fameuse « équipe de superalignement » au début du mois. Cette division, autrefois présidée par le co-fondateur et ex-directeur scientifique Ilya Sutskever qui a plié bagage récemment, avait pour mission de s’assurer que les modèles de la firme soient « contrôlés », et « alignés avec les valeurs humaines ». Par extension, les inquiétudes par rapport aux méthodes et à l’opacité d’OpenAI ne vont pas retomber de sitôt. Reste à voir comment elles vont évoluer au contact de ce nouveau modèle, dont la date de sortie n’a pas encore été annoncée.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : OpenAI

1 commentaire
  1. Merci pour les publications scientifiques de qualité, très bien résumé.
    C’est toujours un plaisir de lire ces articles.

Les commentaires sont fermés.

Mode