Passer au contenu

Titan : le supercalculateur le plus rapide du monde

Le monde des supercalculateurs est une chose curieuse. Les différents laboratoires se disputent la première place du classement des superordinateurs les plus rapides à coup de…

Le monde des supercalculateurs est une chose curieuse. Les différents laboratoires se disputent la première place du classement des superordinateurs les plus rapides à coup de petaflop, et aujourd’hui, c’est le Titan qui s’impose comme le leader.

Détrônant le Sequoia, le Titan a été développé par le laboratoire d’Oak Ridge, dans le Tennessee. Et il en a dans le ventre, le Titan, puisqu’il a atteint la vitesse de calcul de 17,59 petaflop, contre 16,32 pour le Sequoia. Une prouesse due notamment au 19 000GPU Tesla K20X de NVidia.

Cette vitesse de calcul est tout sauf inutile, puisque le Titan sera utilisé dans le domaine de la recherche, notamment en ce qui concerne le réchauffement climatique. Il sera également utile pour effectuer des recherches sur les moteurs du futur, sur les carburants écologiques, et pour permettre aux scientifiques de faire une partie de Solitaire de temps en temps.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : Source

37 commentaires
  1. mdrrr “notamment en ce qui concerne le réchauffement climatique” alors qu’il en est lui meme un provocateur…

  2. sauf que le réchauffement climatique n’est induit par les sources de chaleurs directes….
    et surement pas d’un “petit” ordinateur

  3. Ouais mais, est-ce qu’il fait tourner Metro 2033 en ultra sans lag? M’étonnerait, il manque un bon milliers de GPU pour ça…

  4. Bon j’espère que le solitaire ne va pas ramer sur une telle machine.
    Mdr, non mais c’est clair c’est impressionnant, et ce type de supercalculateur est devenu un point qui permet d’avancer plus vite dans la recherche.

  5. Un tel four et consommateur d’électricité comme pas possible qui “sera utilisé dans le domaine de la recherche, notamment en ce qui concerne le réchauffement climatique”. Un peu ironique.

  6. Comme d’habitude ils nous donnent la puissance de traitement en pointe, mais pas celle exploitée réellement lors de leurs simulations. Parce que c’est bien beau le Tesla, mais à exploiter pleinement c’est pas ce que j’ai connu de mieux :-/

  7. Je pense que je vais me prendre le même pour mon bureau. C’est ça ou un nexus 4, j’hésite encore. Je comparerai les prix avec le Titan quand il sera dispo.

  8. @squeeze69 : éffectivement la consommation électrique de ce petit bijoux doit être énorme sans parlé des vapeurs d’azote

    @sbeul : je pense que le gros trucs est refroidis en permence par de l’azote liquide …
    et il ferait tourné n’importe quel jeux en full jusqu’en 2020 sur un écran 42 ‘p ….

  9. C’est pas la crise pour tout le monde :p (à prendre au second degré !) Non mais… Mon petit Asus me suffit … … Bon, on fait comment ? En crédit sur 126 ans ?

  10. 17,59 petaflop c’est suffisant pour faire tourner le Solitaire en plein écran?

    Blague mise à part, c’est une impressionnante bête.

  11. @concito euhh non, TOI tu sers à rien en revanche… le K computer qui plafonne à 10 Pétaflops consomme 10 mégawatts

  12. Heureusement que c’est pas Apple qui a construit c’te bécane, pasque remplacer un bouzin comme ça tout les ans, voire plus, ça commence à faire cher….

  13. @BlackerS : et quel est le rapport ? Tu parles de consommation électrique. Ne confonds pas tout.
    Il me semble qu’il y a d’autres “provocateurs” autrement plus critiquables.
    Ici, il est question d’aider la recherche dans le domaine du réchauffement climatique, et je ne pense pas qu’utiliser un outil qui consomme de l’électricité soit contradictoire.

  14. 1 – Pour les petits malins parlant de jeux vidéos, bien au contraire ce supercalculateur (et pas ordinateur, la nuance est réelle) n’est pas fait pour de l’affichage mais pour du calcul pur, d’où d’ailleurs sa puissance exprimées en FLOPS (FLoating point Operations Per Second). Le but est juste de pouvoir simuler de manière poussée des modèles mathématiques, pas d’afficher une UI recherchée.

    2 – En ce qui concerne la consommation et les autres petits malins ironisant sur le réchauffement climatique, posez alors vous des questions concernant votre lave-linge, four, réfrigérateur…

  15. C’est moi ou les geeks sont ce qu’il y a de plus prévisible en matière de blagues?
    “Est ce que la babe est livrée avec?”
    “Est ce que cette iPhone coutera moins que 125 k€ ?”
    “Est ce que ce super calculateur fait tourner BF3 en ultra en 3D sur 45 écrans? Lol ptdr” ^^

    Un peu de renouveau, que dis-je! Nous somme le peuple de Pierre Desproges !! Faites le valoir !!

    Par contre ma vrai question c’est: Comment sont créés les programmes assez lourds et puissants pour exploiter tout ces flops? J’imagine bien que ça doit exister, la preuve, mais… je sais pas, ça tracasse que moi?

  16. il me semble que le PC français était composé de 150 000 CPU.
    ici 19 000 GPU.
    il serait intéressant d’avoir des éléments de comparaison, si c’était possible de donner une équivalance nombre de CPU de type Core 4 intel ou i7 ( ce qui est équivalant )
    .
    j’aimerais bien aussi savoir, toujours en équivalances, pour le 1e Cray 1 et Cray 2 des années 80

  17. ” This would imply Q6600 at stock speed is roughly 30-31 Gflops ”
    – un cul6600 fait environ 30 Gigaflops
    ( http://forums.anandtech.com/showthread.php?t=80946 )
    comparé aux 18 petaflops, avec donc 1000 Giga -> 1000 Tera x 18
    ( et quand même divisé par 30 )
    ça fait ça fait… de tête…
    oouuuh….
    .
    calculatrice : 600 000 quad core !!!!!!!!!!!!!!!!!!!!!

  18. Donc en gros c’est équivalant à 600 000 des presque-meilleurs ordis de bureau actuels !
    Un rendu de 18 heures sous Vegas avec des tas de pistes chargés de plugins NewBlue (réputés pour leur coût CPU )
    ça fait 18 x 3600 / 600 000 = 0.108 seconde.
    .
    Tu cliques sur “Rendre en tant que”, c’est fait !
    ( … et t’appuies sur Enter…. )

  19. @Azgar : les programmes qui tournent sur ce type de machine sont en fait des codes de calcul qui simulent des phénomènes physiques nécessitant une quantité énorme de calcul.
    Le principe, c’est de discrétiser spatialement le domaine que l’on étudie : par exemple en météorologie on va réaliser un maillage de points représentant l’atmosphère. Plus le maillage sera dense, plus la simulation pourra etre précise, mais tu imagines bien que si on représente l’atmosphère terrestre avec un point tous les 10 mètres, ça fait un nombre de point énorme.
    Le code de calcul va ensuite résoudre des équations sur chaque point, sachant que le résultat va dépendre des valeurs des points voisins. Il faut donc plusieurs itérations successives (refaire plusieurs fois le calcul en chaque point) pour que le système converge vers un état d’équilibre. Ça, c’est valable pour un instant donné. Si tu rajoutes la variable temps, tu recommences ce processus encore et encore, en incrèmentant d’un pas de temps à chaque fois.
    Selon les phénomènes modélisés (complexité, taille du domaine, précision nécessaire, etc…) Ça peut représenter des milliards de milliards d’itérations, sur des millards de points.

    La seule solution pour pouvoir réaliser ces simulations, c’est de disposer de supercalculateurs avec des capacités de calcul gigantesques, et de paralléliser la simulation pour pouvoir calculer plus rapidement.

    A noter qu’ici il s’agit de GPU et non de CPU, ce qui entraine un certains nombre de contraintes, notamment au niveau du stockage/échanges de données entre GPU. L’avantage c’est d’avoir des puissances de calcul brutes beaucoup plus importantes qu’avec des CPU, pour un cout et une conso énergétique plus faibles, mais ça impose
    d’avoir des codes optimisés pour ce type d’architecture.

    Bref mon propos est simplifié et peut etre pas exact pour toutes les applications de ces supercalculateurs, mais ça donne une idée de l’utilité de telles machines. 🙂

  20. @ Tanuki , sous Linux
    @ Azugar , oui , de très lourd et optimisé
    @ Cslevine , le Cray 1 c ‘ était du 180 Mflops et le Cray 2 , du 1.9 Glops en pointe …à toi de faire le calcul

  21. @Azgar : les programmes qui tournent sur ce type de machine sont en fait des codes de calcul qui simulent des phénomènes physiques nécessitant une quantité énorme de calcul.
    Le principe, c’est de discrétiser spatialement le domaine que l’on étudie : par exemple en météorologie on va réaliser un maillage de points représentant l’atmosphère. Plus le maillage sera dense, plus la simulation pourra être précise, mais tu imagines bien que si on représente l’atmosphère terrestre avec un point tous les 10 mètres, ça fait un nombre de point énorme.
    Le code de calcul va ensuite résoudre des équations sur chaque point, sachant que le résultat va dépendre des valeurs des points voisins. Il faut donc plusieurs itérations successives (refaire plusieurs fois le calcul en chaque point) pour que le système converge vers un état d’équilibre. Ça, c’est valable pour un instant donné. Si tu rajoutes la variable temps, tu recommences ce processus encore et encore, en incrémentant d’un pas de temps à chaque fois.
    Selon les phénomènes modélisés (complexité, taille du domaine, précision nécessaire, etc…) Ça peut représenter des milliards de milliards d’itérations, sur des milliards de points.
    La seule solution pour pouvoir réaliser ces simulations, c’est de disposer de supercalculateurs avec des capacités de calcul gigantesques, et de paralléliser la simulation pour pouvoir calculer plus rapidement.

    A noter qu’ici il s’agit de GPU et non de CPU, ce qui entraine un certains nombre de contraintes, notamment au niveau du stockage/échanges de données entre GPU. L’avantage c’est d’avoir des puissances de calcul brutes beaucoup plus importantes qu’avec des CPU, pour un cout et une conso énergétique plus faibles, mais ça impose
    d’avoir des codes optimisés pour ce type d’architecture.

    Bref mon propos est simplifié et peut être pas exact pour toutes les applications de ces supercalculateurs, mais ça donne une idée de l’utilité de telles machines. 🙂

  22. “19 000GPU Tesla K20X de NVidia”
    Vu le prix de ces babioles, il y a en a déjà pour plus de 60 millions de dollars rien que dans les GPU…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *