Passer au contenu

Chat with RTX : NVIDIA transforme votre carte graphique en chabot personnalisé

Le nouvel outil d’Nvidia permet de faire tourner des grands modèles de langage, ces algorithmes d’IA générative comparables à GPT, en local sur votre propre machine. De quoi se construire son propre chatbot personnalisé sans devoir passer par un serveur web.

En l’espace de quelques années, Nvidia s’est imposée comme la plaque tournante incontournable du hardware appliqué à l’intelligence artificielle. Ses cartes spécialisées, à commencer par les fameuses H100, se vendent comme des petits pains chez tous les géants du secteur, comme Microsoft et OpenAI. Mais au-delà de cette activité B2B, le géant vert a aussi placé l’IA au centre de sa stratégie grand public. A chaque nouvelle génération de carte RTX, on constate par exemple une explosion du nombre de cœurs Tensor, ces sous-unités de traitement très performantes dans les tâches de machine learning.

Cette puissance de calcul brute peut être exploitée de différentes manières; dans les jeux vidéo, elle alimente par exemple le DLSS, un système de suréchantillonage dopé à l’IA. Mais Nvidia a d’autres idées en tête. Selon un billet de blog repéré par TechCrunch, l’entreprise déploie en ce moment un nouvel outil qui permettra à ces cartes de faire tourner des modèles d’IA générative directement sur sa propre machine en local, sans devoir passer par un service web pour accéder à un modèle stocké dans le cloud.

Un chatbot local entièrement personnalisable

Comme son nom l’indique, cet outil baptisé Chat with RTX est plutôt destiné aux grands modèles de langage (LLM), comme le fameux GPT. Cela ne signifie pas que vous pourrez installer directement le modèle d’OpenAI sur votre machine, puisque le code de ce dernier n’est pas public. En revanche, ce sera possible avec d’autres modèles open-source qui fonctionnent plus ou moins de la même manière. Par défaut, Chat with RTX travaillera avec le modèle de Mistral. Mais il pourra aussi gérer d’autres algorithmes du même genre, comme LLaMA de Meta.

Cette approche présente un avantage intéressant : en théorie, un chatbot local de ce genre pourrait servir d’interface avec le reste de la machine. “Au lieu de chercher dans des notes et des fichiers, les utilisateurs pourront simplement taper une requête”, explique l’entreprise. “Par exemple, on peut lui demander : “Quel était le restaurant recommandé par mon partenaire lorsque nous étions à Las Vegas”, et Chat with RTX va scanner les fichier locaux désignés par l’utilisateur pour trouver cette information.”

Pas un concurrent de ChatGPT

Pour l’instant, Chat With RTX soufre de quelques limites importantes. La première, et la plus évidente, c’est le poids du système; il faudra avoir entre 40 et 100 GB d’espace libre à disposition, en fonction du modèle choisi. En outre, il ne prend pas tous les types de fichiers en charge. Pour l’instant, il est encore limité aux formats .txt, .pdf, .doc, .docx et xml.

Au-delà du type d’informations, Chat with RTX présente aussi une autre lacune majeure par rapport à ChatGPT : le contexte. Il est incapable de comprendre les liens logiques qui peuvent sembler évidents pour les humains. Par exemple, si on lui demande qui est le dirigeant d’Open AI et qu’ on embraye en lui demandant “Quel âge a-t-il”, le modèle sera incapable de comprendre que la deuxième question fait référence à Sam Altman. De quoi rendre certaines interactions passablement laborieuses.

De plus, Nvidia reconnaît ouvertement que la pertinence des réponses peut être très hétérogène, notamment par rapport à d’autres chatbots généralistes comme ChatGPT. Ce dernier a déjà passé des années à ingurgiter des montagnes de contenu numérique. Or, comme toujours dans le domaine du machine learning, c’est la taille et qualité de l’ensemble de données qui font toute la différence. Un système purement local de ce genre aura donc bien du mal à rivaliser en termes de flexibilité.

Le machine learning local, le futur de l’IA ?

Chat with RTX est donc encore assez loin d’être un outil mature. Mais il pourrait tout de même être se rendre utile, notamment pour les tâches créatives. Par exemple, il pourrait s’avérer précieux pour un auteur qui travaille sur un univers fictif. Il suffirait de faire ingurgiter la documentation au chatbot pour pouvoir générer de nouvelles péripéties cohérentes avec le reste du lore et de la trame narrative.

Reste qu’en l’état, il faut plutôt le voir comme une preuve de concept qui s’inscrit parfaitement dans la stratégie de la marque. Tous les spécialistes de l’industrie s’attendent à une explosion du nombre d’appareils capables de faire tourner des modèles d’IA générative en local. Pour Nvidia, c’est donc une manière d’avancer ses pions, et de préparer le terrain en attendant que ces systèmes locaux commencent à se démocratiser. Il ne reste plus qu’à patienter pour voir si cette stratégie va payer.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : Nvidia

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode