Passer au contenu

[Rediff / Chronique] 30 ou 60 images par seconde, 720p ou 1080p… Pourquoi c’est important (ou pas) ?

Débattre sur la présence de DLC dans un jeu, c’est tellement 20XX ! En 201X, le nouvel objet de scandale qui fait rager, ce sont ces…

Débattre sur la présence de DLC dans un jeu, c’est tellement 20XX ! En 201X, le nouvel objet de scandale qui fait rager, ce sont ces jeux qui ont l’outrecuidance de ne pas être en 60 FPS et 1080p sur consoles ! Mais qu’est-ce que ça veut dire, déjà, et est-ce que c’est vraiment la panacée ? Éléments de réponse.

Assassin's Creed Unity
Assassin’s Creed Unity

Pour 100 images par seconde, t’as plus rien

Allez, souvenez-vous de vos cours d’optique au collège. Vous le savez, mais c’est bon de le rappeler, quand vous regardez une vidéo ou un jeu, vous ne regardez pas vraiment une image en mouvement mais en fait plein d’images fixes diffusées très vite les unes à la suite des autres. Ça va alors trop vite pour votre cerveau qui se fait hacker et a l’impression qu’il s’agit en fait d’une image en mouvement : on explique ça par l’effet phi (et non par la persistance rétinienne comme on a dû pourtant vous le dire).

En gros, quand vous regardez quelque chose, votre cerveau est bombardé par un flux continu de stimulations visuelles (la réalité n’est pas divisée “image par image”, elle) mais pour rendre ça gérable, votre système visuel fait, pour le dire simplement, la synthèse de tous les changements visuels qui se sont produits pendant le dernier dixième de seconde avant de vous en rendre compte.

C’est ce qui explique qu’on puisse créer l’illusion du mouvement en enchaînant des images fixes, et pas forcément à 24 images par secondes comme on vous l’a toujours dit à cause du cinéma. L’impression de mouvement peut en effet avoir lieu dès 5 ou 6 images par seconde et on peut avoir quelque chose de fluide dès 10 images par seconde, c’est pourquoi la plupart des dessins animés sont bien en-dessous des 24 images par seconde, qui n’est qu’une norme arbitraire. Si elle a été adoptée et imposée par l’industrie du cinéma, c’est simplement car c’était celle qui se prêtait le mieux à la projection en salles obscures tout en restant la plus économique (la pellicule, c’est de l’argent !).

Bref, ce qu’il faut retenir, c’est qu’il n’y a pas de “règle” générale ou de nombre d’images par seconde parfaitement optimal et ce n’est pas parce que le taux d’images par seconde est faible que le rendu sera forcément de mauvaise qualité.

Du blur dans Blur
Du blur dans Blur

Ma télé va craquer

Le truc, c’est que le jeu vidéo est un peu différent du cinéma, pour plusieurs raisons. D’abord, parce qu’il ne s’agit pas de prises de vue (on ne filme pas avec une caméra qui prend X photos par seconde une bonne fois pour toutes) mais d’images générées par un ordinateur ; ensuite, parce qu’il se pratique sur des télés (ou plutôt, des écrans électroniques). Ces dernières rafraîchissent leur image 50, 60, 100 ou 120 fois par seconde : ce sont les fameux Hertz (Hz). Un jeu vidéo, à la différence d’un film, calcule une par une les images à afficher (une image étant appelée “une frame”), puis les affiche, et c’est ce qui nous permet de voir Pac-Man avancer dans son labyrinthe ou le Master Chief se prendre une grosse bastos dans la tronche. Vous aurez donc compris qu’un jeu en 30 FPS sortira 30 frames en une seconde et qu’en 60 FPS, il proposera 60 frames pendant la même seconde. L’image sera mieux décomposée et le rendu à l’écran plus fluide. Les écrans modernes, eux, s’adaptent.

Concrètement, qu’est-ce que ça change ? En fait, ça dépend. Prenons des exemples. D’abord, un jeu de tir très nerveux, genre Call of Duty. On voit à travers les yeux du personnage, on va très vite et quand on déplace la caméra et on veut tout de suite pouvoir faire mouche avec flingue dont le réticule apparaît à l’écran. Bref, plus le jeu va être fluide, plus on va pouvoir être précis. A 30 images par seconde, on va être un peu juste. A 60 FPS, tout est bien, d’autant que le jeu a été pensé pour cette vitesse.

Prenons maintenant un Assassin’s Creed, récemment au coeur du scandale. C’est un jeu d’action, certes, mais à la troisième personne, où les déplacements de caméra sont plutôt lents, où les actions sont contextuelles et le ciblage automatisé. Bref, c’est moins une histoire de réflexes. Le jeu est en plus gorgé d’effets, et notamment de flou cinétique (que vous connaissez sûrement mieux sous le nom de motion blur). Le flou cinétique existe déjà au cinéma et en photo : quand on prend un cliché d’un objet en mouvement, il est flou car il s’imprime dans la pellicule à plusieurs endroits en même temps. Dans la réalité, “rien” n’est flou quand il se déplace : si quelque chose est trop rapide, on ne le voit juste plus ou en continu, pensez à une hélice par exemple. Mais le flou cinétique, c’est très classe et c’est ce qui représente le mouvement dans nos têtes. C’est pourquoi, la plupart des jeux en 3D en comportent aujourd’hui, ce qui “compense” l’animation moins décomposée en 30 plutôt qu’en 60 FPS. Ce GIF à 25 images par secondes vous montre bien de quoi il s’agit.

The Evil Within : Bethesda « déconseille » de dépasser les 30 fps
The Evil Within : Bethesda « déconseille » de dépasser les 30 fps

Choisir, c’est renoncer

Vous me direz “mais pourquoi ne pas tout faire à 60 FPS ou plus ?” Eh bien, parce que calculer ce qu’il y a sur une image, c’est compliqué, surtout quand il faut en sortir 60 dans la seconde et qu’il y a beaucoup de choses sur l’écran donc beaucoup de choses à calculer. C’est là qu’arrivent les saccades, les ralentissements, les “chutes de framerate”. Si le jeu n’arrive plus à calculer autant d’images que nécessaire et qu’on passe d’un coup de 60 images par secondes à 20, là oui, ça se voit. C’est pourquoi les développeurs peuvent prendre la décision d’être moins ambitieux, et de vouloir offrir 30 belles images par seconde quoiqu’il arrive que de prendre le risque d’afficher 60 images par seconde par moments et (beaucoup) moins lors qu’un passage comporte trop d’effets à calculer. Sur PC en tout cas, chaque joueur prend ses responsabilités vis à vis du rendu en modifiant ses options comme il souhaite par rapport à sa machine. Sur console, le dev’ sait à l’avance comment se comportera le jeu (le hardware est fixe), il doit donc les régler une fois pour toutes, et donc opter pour des paramètres qui feront loi pour tous.

Bref, ce qu’il faut comprendre, c’est que 60 images par seconde ne sont pas forcément la panacée, surtout si le jeu est lent et le point de vue externe. Le gain en détails et en fluidité peut être très limité par rapport à un travail technique colossal à produire. Les développeurs devant sortir des jeux régulièrement s’ils veulent gagner leur vie, ils ne vont pas forcément chercher la prouesse technique mais le rendu final. Et il peut s’avérer parfois plus simple de viser un beau 30 FPS dans un jeu pensé pour que cette vitesse d’affichage ne pose pas problème. Ubisoft à propos d’Assassin’s Creed Unity ou Bethesda à propos de The Evil Within n’avaient donc pas tout à fait tort en expliquant que c’était un choix artistique.

Pour aller plus loin dans ces explications, ce site vous permet d’essayer plein de situations de vitesses de défilement et de nombres d’images par seconde. Gardez bien en tête que vous essayez de voir la différence en vous concentrant sur des objets très simples, ce qui n’est pas du tout le cas pendant une partie où vous êtes concentrés sur plein de choses à la fois…

Deux autres dossiers assez éclairants sur le sujet : celui de NoFrag et celui de GrosPixels.

Ubisoft promet du 1080p pour tous sur Far Cry 4
Ubisoft promet du 1080p pour tous sur Far Cry 4

1080p : la bonne résolution ?

Les débats ont également fait rage récemment quant au rendu en 1080p ou non d’un jeu. Assassin’s Creed Unity sera par exemple bloqué à 900p ! Scandale ! Les choses sont un peu plus simples que pour le framerate, mais les idées sont un peu brouillées dans nos têtes car il y a eu, cette dernière décennie, toute une guerre du lexique dans l’univers des télés et des écrans. HD, THD, Ultra HD, 2K, 4K, 1080i, 1080p… Beaucoup d’appellations parfois tordues un peu n’importe comment pour faire du marketing.

Ce qu’on entend par écran 1080p, c’est qu’il y a 1080 lignes de pixels entre le haut et le bas de l’écran. Combien y a-t-il de colonnes de pixels ? Ca dépend de s’il s’agit d’un écran 16/9 ou 16/10. Le cas standard est le 16/9, soit 1920×1080 pixels (soit près de 2,1 millions de pixels). Un “jeu 1080p” est donc capable de sortir ses images avec une résolution équivalente, A titre de comparaison, 720p désigne une résolution de 1280×720 pixels en 16/9 et nos télévisions cathodiques étaient, elles, en 720×576.

Qu’est-ce qu’une résolution ? C’est simplement le nombre de pixels qui composeront l’image (de votre jeu). Plus ce nombre est grand, plus l’image sera précise et détaillée, mais aussi plus le jeu aura de calculs à effectuer pour indiquer ce que doit afficher chaque pixel. Pour les mêmes raisons techniques que tout à l’heure, si le joueur PC pourra généralement pousser comme il veut les manettes, le joueur console, lui, doit avoir une expérience optimale. Et parfois, pour éviter les ralentissements, on décide d’afficher un peu moins de pixels.

Là aussi, les télévisions modernes s’adaptent pour qu’un rendu en 720p sur une télé 1080p soit adouci. Le résultat concret est que plusieurs pixels de l’écran vont partager le même rendu alors qu’ils pourraient afficher des choses différentes : on va avoir un effet d’escalier, plus ou moins prononcé selon la résolution source et l’écran et plus ou moins visible selon la distance où l’on se trouve. Maintenant, il ne faut pas oublier que cela se joue en finesse, au niveau des contours des éléments à l’écran, que l’on n’est pas forcément focalisé dessus et que les téléviseurs compensent cela.

Un rendu 900p, la solution intermédiaire choisie par Ubisoft pour Assassin’s Creed Unity sur consoles, correspond à 1600×900 pixels. Soit environ 31% de pixels en moins… Ça paraît beaucoup, mais passé un mètre de distance avec l’écran, la perte de détails n’est plus visible à l’œil nu. Là aussi, les joueurs se sont peut-être emparé d’un débat qui pose moins problème sur console que sur PC, où l’on joue tout près de son écran…

Article rédigé par Alvin pour le Journal du Gamer.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

24 commentaires
  1. Je tiens à signaler une ÉNORME faute dans cet article. Peu de gens la savent, mais parler de résolution quand on parle de 1080*1920 est totalement faux. Il s’agit en faite de la définition de l’écran.
    La résolution, c’est tout autre chose, il s’agit de la définition divisée par la taille de l’écran
    donnant ainsi le nombre de pixels par centimètre/pouce … (les fameux DPI ou PPP de vos téléphones et autres).

    Je tiens également à signaler autre chose, il y a (comme pour les FPS) un moment ou l’oeil ne vois pratiquement plus de différence entre les différents DPI (vers 350-400 à moins de se coller à l’écran ou de regarder à la loupe xD).
    Donc avoir un smartphone 4K n’a pas de réel intérêt. Un smartphone HD est largement suffisant.
    Par contre, pour les écrans de PC, la 4K améliore nettement la qualité de l’image(malheureusement, ça consomme beaucoup de ressources).

  2. Globalement bon dossier par contre confondre définition et résolution… Ça le fait moyen hop hop hop on corrigé vite fait avant qu’un extrémiste se l’exactitude vienne cracher sa dichotomie. 😀

  3. Inutile dans le fond…
    Rien qu’on ne connaisse pas…
    Par contre détail important qui n’est pas développé dans le sujet, ils ne parlent pas du pitch !!!
    Et encore moins des diagonales de visionnage…
    Bref on survole un sujet sans développer.

  4. Un peut bizarre cette phrase : “Combien y a-t-il de colonnes de pixels ? Ca dépend de s’il s’agit d’un écran 16/9 ou 16/10.”
    Pour un écran, qu’il soit en 16/9 (1920×1080) ou en 16/10 (1920×1200), il a le même nombre de “colonnes de pixels”.

  5. Ah voila un article qui doit se généraliser , marre de voir dans les forums de jeux vidéo , des gens pleurer parce que tel jeu ne sera pas en 60 fps ou 1080p (des petits détails qui doit préoccuper au pire que les développeurs du jeu).
    Dans tous les cas je pense que le 1080p sera généralisé dans les jeux consoles quand les devs auront maitrisés la PS4 et surtout la Xbox one quant au framerate tant qu’il n’est pas en dessous de 30 fps (hormis les jeux de tirs) cela ne m’intéresse pas.

  6. Bon article, mais effectivement c’est dommage de confondre définition (taille de l’image en pixels) et résolution (densité de pixel d’un écran). C’est un faux-ami avec l’anglais 🙂

  7. Et mince, devancé par Moulogic sur la définition et la résolution.

    Article cependant pertinent. Merci de le mettre à jour en prenant en compte les remarques de mes confrères.

    Zene

  8. Bon article dans l’ensemble.
    Il va permettre à certain de mieux comprendre les débats sur les forums. Je pense qu’il manque juste un point important à souligner. Si ces débats existent, c’est aussi parce que les constructeurs de consoles de salon nous ont vantés les possibilités du 1080p/60fps de leurs consoles. C’est en majorité pour ca, que la plupart des joueurs “gueulent”…

  9. @dreamkey : Par définition du 1920*1200 n’est pas du 1080p, la résolution utilisé par le rédacteur pour définir le “ratio”, tu t’emmêle les pinceaux

  10. Cet article m’inspire une nouvelle question : Dans un jeu vidéo, où le joueur interagi avec l’image, augmenter les FPS permet au joueur d’avoir une meilleure immersion. En revanche, pour le cinéma (et la TV?) il a été établi que 24 FPS est le meilleur rapport qualité/prix. Du coup, qu’en est-il des vidéos sur YouTube à 60 FPS ? Est-ce réellement utile ?

  11. Ok l’article qui vise à consoler les consoleux (dont je fait parti), mais dans la pratique 60fps1080p voir + c’est quand même le must, peut importe le jeu.

  12. Pour la fréquence d’images, je suis d’accord que tous les jeux ne nécessitent pas la même chose. Ça ne me dérange pas de jouer à un AC à 30 FPS.
    En revanche, le problème de la définition est – selon moi – réel. Je ne sais pas pour vous, mais je vois tout de suite la différence dans la qualité d’image entre un blu-ray (1080p) et une chaîne “HD” (720p). Même chose pour un jeu. Et ils ne peuvent plus utiliser l’excuse “le matériel se fait vieux”, on vient de passer à la new gen Quelle proportion de joueurs n’avaient pas une télé full HD à la sortie des nouvelles consoles ? La 4k commence à faire son entrée en scène alors que des nouveaux jeux sortent toujours en 720p, soit quasiment 10 fois moins de pixels…

  13. @Moulogic : “Par contre, pour les écrans de PC, la 4K améliore nettement la qualité de l’image(malheureusement, ça consomme beaucoup de ressources)”

    un Tri-SLI de GTX-980, et ça roule !

    😀

  14. Pour la résolution, à moins d’avoir un écran immense la différence n’est pas flagrante dans une jeu en mouvement.
    Pour les FPS tout dépend du type de jeu. Etant donné les limitations des nouvelles consoles, vaut-il mieux 60fps/1080p ou des graphismes poussés ? C’est là que devraitse situer le débat.

    Tout ça c’est à cause de la “next-gen” qui a créée des attentes trop grandes (merci la communication).
    L’essentiel reste de s’amuser et finalement, nintendo avec son hardware dépassé est épargné par ces exigences de Nerds pro-gamers.

  15. MERCI pour cet article. Vraiment, merci. C’est tellement fatiguant de voir les gens venir savament déblaterrer leurs anneries sur le blaspheme que représente une sortie en 30fps ou en dessous des 1080p… sans même être conscient qu’ils n’y verront que du feu.
    Avec ça, peut-être que, pour ceux qui se seront donné la peine de lire, ils comprendront enfin qu’au final ce choix est fait pour eux, pour leur propre confort de jeu… sans contrôle la puissance n’est rien.
    Au passage, c’était plaisant a lire, très bien rédigé, et la problématique de fond est bien mise en avant.

  16. Aussi il y a un truc et c’est pour ça que les joueurs consolent gueule c’est que les développeurs n’ont pas dit qu’ils n’ont pas réussi à mettre le jeu en 1080p 60 Fps car le hardware les limitait et qu’ils ont fait ce qu’il pouvait.
    À la place ils se sont foutue de notre gueule en disant que c’est plus réalisme et que le cinéma c’est 24 Fps et plein de connerie comme ça qui a agacé tout le monde.
    On n’aurait pu les pardonner, mais il a fallu qu’ils nous prennent pour des cons.

  17. Vraiment intéressant. Merci beaucoup pour tous ces éclairages. Je dis ça en tant que mec qui n’y connait pas grand chose et qui d’ailleurs ne porte pas un grand intérêt aux débats sur ce genre de sujet parce que je prend les jeux comme ils sont (sur pc) et j’essaye de trouver les meilleurs réglages pour avoir un plaisir de jeu optimal entre fluidité et esthétique. Mais pour la culture générale, c’est expliqué de façon claire et compréhensible, sans être trop basique et sans prendre les gens pour des idiots. Nickel 🙂

  18. Au top cet article, j’étais déjà convaincu de tout ça mais mieux vaut répandre ces vérités 🙂
    Je rebondis juste sur le commentaire de krimog :
    Effectivement pour une série en 720p à la TV on commence à voir que l’image a été dégradé, mais il y a du coup de nouvelles composantes : la compression et l’encodage des vidéos. Sur une TV Full HD de taille relativement standard (entre 32 et 42 pouces par exemple), si l’on se tient à + de 3 mètre de l’écran regarder du contenu en 720p ou 1080p très peu compressé et bien encodé ne fera pas vraiment de différence, pour ne pas dire pas du tout.
    Maintenant effectivement, du 720p encodé en xvid avec compression au maximum et aucune optimisation ça va être moche 🙂 mais tu auras le même problème en 1080. Bref en règle général, plus c’est beau plus c’est lourd. Plus c’est lourd, plus il faut de bande passante…
    Pour un jeu c’est finalement pas si différent, effectivement aujourd’hui on sort des jeux new-gen avec des résolutions 720p (dignent des premières heures de la PS3 🙂 mais en même temps on affiche 10 fois plus de choses à l’écran car maintenant les textures sont plus grandes, les décors sont plus détaillés, on voit plus loin… Donc plus de calculs, qui demandent plus de puissance.

  19. Pourquoi tous les joueurs PC qui se “respectent” jouent entre 60 et 120 FPS ?
    Pourquoi tous les jeux qui ont marqué notre enfance bien avant cette gen :
    – SoulCalibur sur dreamcast > 60 FPS, imaginez le à 30 FPS !!!!
    – Pourquoi nintendo utilise le 60FPS dans quasiment tous ses jeux ?
    – La majorité des studio japonnais de la grande époque : 60 FPS

    Le 30 FPs est mis en avant depuis que les canadiens avec leur concepts foireux on mis la main sur le développement des jeux.
    Ils veulent absolument rapprocher le jeu vidéo du cinéma mais c’est une absurdité par ce qu’il y a un terme que ces gens là ne connaissent pas c’est le gameplay !

    De toute manière ce débat trouvera sa fin avec l’arrivée des casques de réalité virtuel, car un jeu en VR à 30 image par oeil bonjour la gerbe (norme 60ips/oeil voir plus > tiens comme par hasard !)

    C’est un débat d’arrière garde !

  20. Très pedagogue ! Bravo pour cet article !

    Sinon je me souviens qu’il y a quelques années (à l’époque où il n’y avait pas internet, les gadgets et tv haute résolution) des scientifiques avaient fait un test sur le nombre d’images au cinéma. Les scientifiques ont proposé le même film avec deux résolutions différentes : 24 images/s (la base) et la nouveauté 50 images/s.
    Ils ont constaté que les cobayes s’endormaient avec les 50 images/s.
    Pourquoi on ne voit pas la même chose maintenant ?

  21. Un article pour réconforter les joueurs sur consoles, mais je ne suis pas d’accord sur les 2 points:

    – Il n’y a que les joueurs sur consoles pour dire que jouer en 60 images/s n’apporte rien. Une fois habitué au 60 images/s, il est très difficile de jouer en 30 images/s, la fluidité se ressent aussitôt.

    – Pour ce qui est du 1080p, les écrans/téléviseurs ont une résolution native de 1080p (pour les écrans 1080p il va de soit) et jouer à une résolution inférieur, provoque (en plus de la diminution de l’écran) une image baveuse car l’écran n’est pas fait pour cette résolution (ah moins de jouer sur un écran cathodique).

    En fait jouer en 60 images/s en 1080p c’est un peu comme de passer du DVD au Blueray, une fois qu’on y a gouté, il est difficile de repasser au DVD !!!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *