Nvidia présente la G-Sync : de la synchro verticale à tous les framerates

Business

Par Jerome Durel le

Les gamers le savent très bien, les écrans et les cartes graphiques ont parfois du mal à se synchroniser. Cela se traduit généralement par des déchirures (tearing) sur l’écran, ce qui peut s’avérer assez gênant à l’œil, en plus de ne pas être optimal pour jouer. Pour mettre fin au problème, il n’y a pas […]

Les gamers le savent très bien, les écrans et les cartes graphiques ont parfois du mal à se synchroniser. Cela se traduit généralement par des déchirures (tearing) sur l’écran, ce qui peut s’avérer assez gênant à l’œil, en plus de ne pas être optimal pour jouer.

Pour mettre fin au problème, il n’y a pas 36 solutions : il faut activer la V-Sync, ou synchronisation verticale en bon français. Celle-ci activée, le GPU va délivrer les images au même taux de rafraîchissement que le moniteur, ou à une fraction de ce dernier.

Généralement, 60 images par secondes pour les écrans 60 Hz, ou 30 images (ou 20 ou 15) si le GPU n’arrive pas à calculer 60 (ou 30 ou 20) images par seconde. C’est ce que Nvidia appelle “l’adaptative V-Sync”. Pour faire simple, les images sont rendues au même rythme que l’écran. Plus de déchirures.

NVIDIA_GSync-3-processed

Cela a deux inconvénients. Dans un premier temps, cela bride le framerate, on ne peut donc plus profiter pleinement de la capacité de sa carte graphique, achetée parfois à prix d’or.  Dans un second temps, la synchronisation verticale va parfois nécessiter d’afficher deux fois la même image pour fonctionner de concert avec l’écran. Ce qui peut créer des inputs lag au grand dam des joueurs de FPS.

Synchroniser à la volée

L’idée du G-Sync est en réalité très simple : s’affranchir du taux de rafraîchissement fixe de l’écran et le modifier en fonction des images délivrées par la carte. Les deux travaillent au même rythme, plus de problèmes d’affichages et plus de problèmes de lag. Il suffisait d’y penser. La limite annoncée est de 144 Hz.

La technologie nécessite toutefois l’intégration d’une puce dédiée dans les moniteurs. Plusieurs partenaires ont déjà été annoncés, on citera notamment Philips, Asus, BenQ et ViewSonic. Il faudra également un GPU basé sur l’architecture Kepler (GTX 650 et supérieures principalement).

Les premiers moniteurs arriveront au début de l’année 2014. Les prix restent inconnus, espérons que l’intégration de la technologie n’apportera pas un trop gros surcoût.