Passer au contenu

NVIDIA GTX 690 : une carte d’exception, vraiment

Âmes sensibles s’abstenir. Si les chiffres et les montants astronomiques sont votre passion, NVIDIA a de quoi vous séduire en ce début de semaine avec sa…

Âmes sensibles s’abstenir. Si les chiffres et les montants astronomiques sont votre passion, NVIDIA a de quoi vous séduire en ce début de semaine avec sa nouvelle vitrine technologique : la GeForce GTX 690.

La performance à tout prix… vraiment

999 dollars, voilà du moins le prix outre-atlantique du nouveau tenant du titre de carte graphique la plus puissante au monde… pour l’année 2012. Si vous suivez de près où de loin l’actualité de la firme au caméléon, vous n’êtes pas sans savoir que le ticket d’entrée est généralement élevé pour prétendre au haut de gamme.

Mais si les générations précédentes savaient garder à distance les bourses les plus modestes avec des cartes haut de gamme avoisinant les 700 euros, la GTX 690 devraient quant à elle faire réfléchir plus d’une fois même les plus aisés d’entre nous.

Ha ! je viens de trouver mon futur poulain !

Des chiffres qui forcent le respect

Mais ne vous y trompez pas, à ce prix, NVIDIA vous offre tout simplement une pièce d’exception qui vous fera regretter de ne pas pouvoir l’accrocher à votre cou telle une rivière de diamants.

Dotée de deux processeurs Kepler, essentiellement des puces de GTX 680 aux fréquences revues à la baisse, la GTX 690 impressionne esthétiquement mais aussi technologiquement :

3072 CUDA cores, processeurs cadencés à 915Mhz (1019Mhz en turbo), 4Go de RAM GDDR5 sur un bus individuel de 512-bit, double connecteur 8-pins pour une consommation maximum théorique de 300 Watts, interface PCI Express 3.0.

Voilà pour les amateurs de chiffres. Avec de tels arguments, difficile de remettre en question la volonté à peine cachée de NVIDIA : faire exploser les graphiques et grimper les images par seconde rien que cela.

En ce qui concerne les graphiques, NVIDIA nous offre ses mesures maisons. Bien qu’attendues et largement avantageuses pour le fleuron de la marque, il nous tarde de vérifier par nous même ces performances car il faut bien l’avouer les chiffres laissent songeurs :

Un écrin à la hauteur

A carte d’exception, robe d’exception. Exit le carénage en plastique auxquels les constructeurs nous ont habitués, la GeForce GTX 690 fait la part belle aux métaux. Avec son châssis an aluminium chromé, son carénage en alliage de magnésium et les ailettes de des dissipateurs en nickel, la carte justifie son prix par une finition encore jamais vue.

Au niveau de la connectique, on retrouve un connecteur SLI, trois ports DVI et un miniDisplayPort.

La GTX 690 : pour qui ?

Jen-Hsun Huang, Pdg de NVIDIA précise que même si la GeForce GTX 690 est annoncée comme deux fois plus puissante que la GTX 680, elle est aussi moins bruyante : avec 49db contre 51 décibels pour un SLI de GTX 680, cette carte se destine en priorité à ceux pour qui le brut et la place sont un problème (et non les finances).

La GeForce GTX 690 s’adresse également aux semi-professionnels : des particuliers ayant recours à des logiciels de rendu lourds sauront tirer profit des performances en calcul brut de cette carte, nous sommes loin des tarifs proposés pour les dérivés professionnels des cartes Kepler accessibles uniquement via des réseaux de distributions professionnels.


🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

21 commentaires
  1. heu bof pour les calculs sur logiciel pro il me semble que la 580gtx est mieux gaulé à ce niveau là …

  2. Même pas 60fps sur crysis 2 avec la 590?

    Ma 560ti tourne à 40/50 fps avec toutes les options énoncées…

    Et pourtat elle ne m’a couté 4 fois moins cher 🙂

  3. @Lyff elle tourne à 45/50 fps certes mais en 1920*1080 ? Les test sont en 2560*1600 hein avec AA*16 et réglages au maximum donc je doute qu’une 560 Ti fasse 45/50fps . Il suffit de regarder les test de la 560 TI 448 cores pour voir qu’elle fait 35 fps sous crysis 2 tout à fond en 1920*1080 et 38fps oc donc la 560 Ti normal en fait encore moins.

  4. @Moohr : impossible de faire ce raccourci valable uniquement pour les jeux. L’architecture pour Kepler a complètement changé et ils ont justement lâché tout ce qui était prévu pour le gpgpu, donc il se pourrait que la 580 soit aussi bonne dans ce domaine là que la 680 (la 680 est beaucoup plus proche d’architecture des 560/460 que des 580/480)
    C’est d’ailleurs aussi ces problèmes d’architecture qui ont fait que les 480/580 étaient des gouffres énergétiques avec un rapport perf/watt exécrable alors que les 460/560 s’en tiraient très bien.

  5. SoKette> +1000
    Le GPU GK104 de cette carte n’est pas taillé du tout pour le GPU computing comme la génération précédente l’était. C’est une pure carte gamer. Cela leur a d’ailleurs permis améliorer leur rapport perfo/conso fortement dans les jeux en virant l’inutile pour cette tache.
    Ce qui est “marrant” c’est que AMD est allé dans l’autre sens et sa dernière archi GCN est clairement douée pour le GPU computing au détriment d’une puce plus grosse et donc d’un coût unitaire de production plus important (et vus qu’ils vendent moins cher… forcément la marge doit être basse pour eux :/ )
    Ceci dit en passant, Nvidia a dans ses cartons le GK110 qui lui, sera le vrai haut de gamme.

    Concernant “999 dollars, voilà du moins le prix outre-Atlantique du nouveau tenant du titre de carte graphique la plus puissante au monde… pour l’année 2012. ” euhhh on va dire que c’est valable surtout pour ce mois-ci de 2012 😀 La concurrence devraient s’aligner d’ici quelques semaines et avant la fin de l’année on aura la génération HD8xxx d’AMD et le GK110 de Nvidia qui devraient enterrer les exploits actuels (c’est la loi du marché… et des cycles de vie de 6 mois…).

  6. @SoKette je suis d’accord avec toi mais les cartes Kepler embarquent de nouvelles technologie donc pour moi il y a quand même de l’avance et sans compter sur des drivers moins élaborés sous Kepler que sous Fermi. Enfin avec le temps on verra bien mais il est vrai que tout cela semble moins prometteur qu’il ne devait l’être, en espérant que la prochaine version de puce Nvidia creuse le faussé plus significativement.

  7. [Gros mito]

    Je vient juste d’en comander 4 pour monté un petit SLI, question de jouer a Minecraft sur mon petit ecran iMax 😛

    [/Gros mito]

  8. “la volonté à peine cachée de NVIDIA : faire exploser les graphiques et grimper les images par seconde rien que cela.”
    Quel scoop !

  9. @ibanez
    Cela aurait été un _minimum_ crédible si seulement il était possible de faire tourner 8 GPUs en parallèle, ce qui ne l’est évidemment pas 😉

  10. Moi je suis juste pressez de la recevoir, avec ma petite gigabyte sniper m3 en micro-atx, ouaa sa va être beau.

    Mais j’espère surtout quel va permettre de faire de bon mods pour GTA5. Sinon, quoi qu’il arrive je ferait un petit sli de cette carte en 8x,8x (pas + sur ma carte xd) mais sa va donner!!!

    😉

Les commentaires sont fermés.

Mode