OpenAI pourrait produire ses premières puces dédiées à l’intelligence artificielle dès l’année prochaine, selon un rapport du Financial Times relayé par Reuters. Une information qui, si elle se vérifie, montre que la feuille de route du géant industriel avance à un rythme soutenu.
Ce plan a commencé à prendre forme en 2023, dans un contexte de pénurie de GPU qui a fortement impacté l’activité d’OpenAI. Soucieuse de réduire sa dépendance aux géants du hardware, à commencer par Nvidia, l’entreprise de Sam Altman s’est mise à évoquer la conception de puces faites maison, spécialement calibrées pour entraîner ses propres modèles d’IA.
L’idée s’est concrétisée l’année dernière, quand Reuters a rapporté qu’OpenAI s’était rapprochée de deux géants de l’industrie : l’Américain Broadcom, spécialisé dans la conception de puces, et le Taïwanais TSMC, leader incontesté de la fabrication dans ce domaine.
Jeudi dernier, le dirigeant de Broadcom, Hock Tan, a évoqué un nouveau « client mystère » qui aurait signé un contrat de 10 milliards de dollars avec son entreprise. Dans l’industrie, beaucoup ont interprété cette déclaration comme un signe que l’initiative d’OpenAI était désormais bien engagée.
Les premières puces d’OpenAI attendues dès 2026
Selon des sources proches du dossier citées par le Financial Times, le début de la production est désormais imminent. Si tout se déroule comme prévu, ces nouvelles puces pourraient même sortir des usines de TSMC dès l’année prochaine, selon ces mêmes sources. Cela semble en tout cas cohérent avec les déclarations récentes de Sam Altman : le mois dernier, le PDG avait affirmé que son écurie prévoyait de doubler sa capacité de calcul sur les cinq prochains mois.
Le cas échéant, cela marquerait un tournant majeur dans la stratégie d’OpenAI. Si l’opération est un succès, l’entreprise pourra continuer d’augmenter sa capacité de calcul globale sans s’appuyer exclusivement sur le géant vert. Elle pourra même commencer à s’émanciper progressivement de cet acteur qui lui fournit aujourd’hui la majeure partie du hardware nécessaire à son activité.
À ce titre, cette stratégie rappelle fortement celles de Google, Amazon ou encore Meta, qui ont tous développé leurs propres puces spécialisées dans l’intelligence artificielle pour gagner en autonomie stratégique.
Nvidia a-t-elle du souci à se faire ?
Dans ce contexte, il sera intéressant d’observer les conséquences de cette démarche sur le reste de l’industrie. Pour rappel, l’incroyable santé financière de Nvidia repose en grande partie sur sa division datacenter et IA, qui génère environ 80 % de ses revenus.
Si d’autres géants de l’industrie s’en détournent progressivement et font appel à des acteurs comme Broadcom pour produire leur propre matériel, cela pourrait avoir un impact très concret sur les rapports de force dans toute l’industrie.
Faut-il donc y voir un signe avant-coureur du déclin de Nvidia, qui caracole en tête du classement des entreprises les plus capitalisées au monde ? Il est encore trop tôt pour l’affirmer : l’entreprise reste solide sur ses appuis, et la majorité de ses clients n’ont pas les moyens d’imiter l’initiative d’OpenAI.
Mais il sera toutefois intéressant de voir comment ce mouvement influencera les stratégies d’approvisionnement et d’innovation dans l’ensemble du secteur. Entre la montée en puissance des solutions propriétaires, la concurrence accrue entre concepteurs de puces et la pression qui s’exerce sur les chaînes d’approvisionnement, la bataille du hardware pour l’intelligence artificielle ne fait que commencer.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.