Ce n’est un secret pour personne : l’intelligence artificielle est indiscutablement le nouveau fonds de commerce d’Nvidia. Cette tendance est également visible dans le domaine du gaming, et il n’y a qu’à jeter un œil du côté des RTX 5000 pour s’en convaincre. Du DLSS 4 à la technologie Reflex 2, en passant par les “shaders neuraux”, la génération Blackwell est truffée d’innovations basées sur le machine learning – pour le meilleur et pour le pire… et ce n’est qu’un début.
C’est en tout cas ce qui est ressorti de la conférence Hot Chips 2025, relayée par VideoCardz et ServeTheHome. Lors de cet événement, les porte-paroles d’Nvidia ont lourdement insisté sur le potentiel de leur système de rendu neural (comprenez, dopé au machine learning). L’entreprise est tellement convaincue par le concept qu’elle envisage désormais un futur où… 100 % des images seront artificielles.
C’est quoi, les “fake frames” ?
C’est un pronostic audacieux, sachant que cette approche a notamment conduit à la fameuse polémique dite des “fake frames”, liée à la Multi-Frame Generation (ou MFG).
Cette fonctionnalité, introduite avec le DLSS 4 (la dernière version du système de suréchantillonnage d’Nvidia), repose sur un concept plutôt simple : la carte graphique exploite un modèle IA prédictif pour générer des images “synthétiques”, par opposition à celles qui sont produites directement par le moteur de jeu.

L’objectif est d’augmenter massivement le nombre d’images par seconde sans augmenter la charge de travail attribuée aux unités de rendu du GPU. Il s’agit d’une approche très prometteuse, car elle fonctionne exceptionnellement bien en termes de framerate pur. À elle seule, la MFG permet de doubler le nombre d’images par seconde, voire davantage, sans surcharger le hardware. Du pain béni, notamment pour les machines modestes et/ou portables.
Une technologie pas encore mature
Le problème, c’est qu’on ne peut pas en dire autant de la qualité. Même si la technologie sous-jacente a largement gagné en maturité depuis l’apparition du concept, l’implémentation reste perfectible, notamment en termes de latence.
Puisqu’il s’agit d’images synthétiques qui ne proviennent pas directement du moteur de jeu, les informations qu’elles contiennent ne sont techniquement pas « à jour ». Le fait d’augmenter massivement le framerate sans réduire cette latence peut donc produire un résultat assez déroutant et même contre-productif — en particulier dans les jeux compétitifs où la moindre milliseconde peut faire toute la différence. En outre, la MFG a la fâcheuse habitude de générer des artefacts visuels gênants qui impactent fortement l’expérience de jeu.
Pour toutes ces raisons, les joueurs les plus exigeants ont souvent tendance à faire l’impasse sur cette fonctionnalité… tant qu’ils le peuvent encore. Car si l’on se fie aux dernières annonces de la firme, il ne s’agira peut-être plus d’une option à terme.
Peut-on donc imaginer un monde où les cartes graphiques de demain s’appuieront exclusivement sur l’IA pour le rendu ? Probablement pas, du moins à court terme. À l’heure actuelle, la technologie n’est tout simplement pas assez mature pour assumer l’intégralité du rendu tout en proposant une expérience de jeu acceptable.
Mais cette déclaration montre bien qu’Nvidia va continuer de tout miser sur l’IA. Il y a fort à parier que l’entreprise se rapprochera un peu plus de cet objectif à chaque génération, et il sera donc intéressant de voir comment cette initiative va se manifester sur les prochaines générations de GPU.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.