Passer au contenu

Nvidia prend le pari de Pascal

Si Nvidia a surpris pas mal de monde en dévoilant la Titan Z, lors de la GTC 2014, Jsen-Hsun Huang, le patron de la marque, avait…

Si Nvidia a surpris pas mal de monde en dévoilant la Titan Z, lors de la GTC 2014, Jsen-Hsun Huang, le patron de la marque, avait d’autres surprises pour la conférence d’ouverture qu’il animait.

nvidia-pascal

Le PDG nous a donné quelques nouvelles de sa future puce. Autrefois connue sous le nom de code “Volta”, elle a été baptisée hier Pascal, en l’honneur du mathématicien et philosophe français. Elle succédera à Maxwell dans le courant de l’année 2016, si tout se passe bien. Notez que l’on ne sait pas très bien à l’heure actuelle s’il s’agit de la puce au sens large, c’est-à-dire mémoire et autres joyeusetés comprises, ou de l’architecture du GPU stricto sensu.

Comme prévu, Pascal proposera de la mémoire superposée. En simplifiant, Nvidia empile les modules mémoires et perce un trou au milieu pour connecter tous les étages. Le principal avantage est une augmentation drastique de la bande passante mémoire. Le patron n’a pas donné de chiffres précis, on se souvient en revanche que l’homme a déclaré l’année dernière que Volta (à l’époque) pourrait atteindre une bande passante de l’ordre du To par seconde.

Empiler la mémoire permet en sus à Nvidia de réduire la taille du module, “pas plus grand que deux cartes de crédit”, à la clef des solutions plus denses qu’actuellement. Soit pour des cartes plus petites, soit plus performantes sur un format traditionnel.

Seconde technologie annoncée par Nvidia : NVLink, destinée à éviter les goulots d’étranglement. La chose est surtout utile dans les calculs réalisés avec plusieurs GPU, car elle permet de faciliter les interconnexions entre GPU. C’est le cas dans les supercalculateurs basés sur ce type de puces, comme celui de l’université de Reims que nous avons eu la chance d’admirer.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

3 commentaires
  1. Ce qui m’effraie le plus, c’est bien que les puces mémoires seront portées a la température du GPU : elles consommeront plus ; auront une plage de fréquence de fonctionnement plus limitée, etc.

  2. Hop un petit up sur cette old news pour qu’on s’aligne sur les récentes discussions à ce sujet! Vite vite JDG, un gros dossier! 🙂

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *