Passer au contenu

Une startup dévoile une IA générative capable de produire… d’autres IA

Aizip a présenté un nouveau modèle IA capable de se “répliquer” en produisant d’autres algorithmes compacts et très spécialisés. Une approche qui pourrait jouer un rôle significatif dans la démocratisation de cette technologie.

Aizip, une entreprise spécialisée dans le machine learning, vient d’annoncer un progrès intéressant qui pourrait bien être la première manifestation concrète d’un nouveau paradigme dans le monde de l’IA. En partenariat avec les universités de Berkeley, de Davis et de San Diego, les ingénieurs de la startup californienne ont conçu un modèle IA capable de créer d’autres petits modèles IA spécialisés.

En quelques années, nous avons assisté à une montée en puissance fulgurante de l’IA générative. Des images au texte en passant par l’audio ou le code informatique, des réseaux de neurones artificiels sont désormais capables de produire du contenu numérique extrêmement convaincant avec une facilité déconcertante.

Mais il y a un cap qu’aucune entreprise n’a encore réussi à franchir à ce jour : produire un système capable d’accoucher d’autres modèles IA préentraînés et fonctionnels. C’est pourtant ce qu’Aizip affirme avoir accompli dans un communiqué daté du 18 décembre.

Quand l’IA fait des bébés

« Nous utilisons de gros modèles pour construire de plus petits, comme un grand frère qui aide son cadet à s’améliorer. C’est la première étape sur la route qui permettra de montrer que des modèles IA peuvent construire d’autres modèles IA », explique Yan Sun, PDG d’Aizip dans une interview à Fox News.

Certes, il ne s’agit que d’une preuve de concept. Mais selon le communiqué de l’entreprise, c’est la première fois qu’un programme se montre capable de prendre en charge toute la conception de l’IA, de la collecte des données à la validation en passant par l’entraînement, sans la moindre intervention humaine.

L’objectif de ce système, baptisé Aizipline, n’est pas de créer de gros modèles très sophistiqués comme GPT, l’impressionnant modèle de langage d’OpenAI. À la place, il a vocation à générer une grande variété de petites applications IA spécialisées dans la résolution de problèmes divers et variés. Sun cite notamment l’identification des voix humaines, le suivi de l’activité dans les pipelines, ou le suivi des espèces en voie de disparition à des fins de conservation.

Des mini-modèles utilisables localement

Au-delà de sa versatilité, cette approche présente aussi un avantage pratique non négligeable au niveau de l’intégration. Les LLM comme GPT sont des modèles extrêmement complexes, bien trop lourds pour être intégrés à un petit appareil. En pratique, ils résident donc dans un écosystème cloud auquel les clients accèdent par l’intermédiaire d’une API.

Les modèles produits par Aizipline, en revanche, sont présentés comme des « mini-modèles » compacts et légers. Ils pourraient donc être utilisés localement par différents appareils pour créer un écosystème d’objets dopés à l’IA. Une philosophie qui ressemble vaguement à celle de l’Internet of Things (IoT), mais appliquée à l’intelligence artificielle.

« Avec l’aide des gros modèles qui servent de fondations, les petits modèles vont évoluer plus vite que les gros, donc la tendance est clairement en leur faveur », avance le communiqué d’Aizip. « Comme les minuscules cerveaux des petits animaux qui peuvent agir et percevoir le monde qui les entoure avec moins d’un million de neurones, ces mini systèmes IA qui alimenteront la technologie de demain auront besoin de solutions astucieuses, efficientes pour opérer avec un minimum de puissance et d’impact environnemental. »

Une autre conception du machine learning

Les chercheurs reconnaissent cependant qu’il reste beaucoup de travail avant d’y parvenir. Mais ces initiatives seront aussi une bonne occasion de travailler sur des problèmes de fond qui sont très importants pour l’IA dans son ensemble.

« Nous allons nous pencher sur des questions fascinantes en cours de route », explique Yubei Chen, directeur technique d’Aizip. « Où trouver les bonnes informations dans des jeux de données massifs ? Comment générer des données à partir de ressources limitées ? Comment définir et garantir la robustesse de ces systèmes dans le monde réel ? Comment maximiser la capacité des réseaux de neurones à travailler avec des ressources limitées ? Comment débuger un modèle IA ? », cite-t-il. « Nous essayons de simplifier et d’optimiser chaque étape de la conception d’une IA avec un minimum d’intervention humaine », résume-t-il.

Au-delà de ces défis techniques, il conviendra donc de surveiller l’évolution de cette thématique du coin de l’œil. Certes, il est encore trop tôt pour déterminer si les pronostics d’Aizip vont se réaliser — mais force est de constater que la tendance actuelle va dans leur sens. On constate aujourd’hui que de plus en plus d’appareils se dotent de petits modèles IA spécialisés. Nous l’avons encore constaté récemment avec les fonctionnalités photos du Pixel 8, ou avec la sortie des nouveaux Intel Core Ultra qui sont équipés d’un petit chiplet dédié au machine learning. Reste à voir comment cette dynamique va évoluer sur les prochaines années.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

4 commentaires
  1. Les IA actuelles savent déjà générer du code. Ce n’est pas parfait, ça doit encore être débuggé et optimisé par des programmeurs humains avant de bien fonctionner mais… ce n’est qu’une question de temps avant qu’un boite ne sorte une IA capable de générer du très bon code. À force d’entraînements et d’essai/erreurs, nous finirons par obtenir un IA qui code aussi bien que des humains, puis un IA qui code mieux que des humains et… finalement, qui sait, l’IA ultime, l’IA qui s’auto améliore exponentiellement : la singularité !

  2. @engineering : le probleme c est qu une IA, ce n est pas du code justement !!!

    le “code” qui est sous jacent gere juste l acces et la gestion technique des donnees. Il est presque secondaire.

    Ce qui fait l IA est la capacite a trouver les donnees, a effectuer les liens, et surtout a mettre des poids sur les differents types d information pour pouvoir prendre une decision de lien …

    en clair, savoir coder est totalement secondaire pour faire une bonne IA, c est pour ca que c est complexe pour un IA de faire une autre IA : il faut qu elle trouve les bons poids selon ds criteres non definis par avance… ouich

    De fait la notion d IA qui s ameliorerait exponentiellement est une blague si on se base juste sur le code ou le fait d en avoir plein… pour que ce soit possible , il est necessaire que chaque generation prenne les bons choix pour les bon poids. Deja qu en tant qu humain, on a du mal 😉

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode