Passer au contenu

Un stockage de 120 Petaoctets chez IBM !

Que font 200 000 disques durs reliés entre eux ? Un stockage immense de 120 Pétaoctets (Po), soit 120 millions de Gigaoctets ! De quoi facilement…

Que font 200 000 disques durs reliés entre eux ? Un stockage immense de 120 Pétaoctets (Po), soit 120 millions de Gigaoctets ! De quoi facilement stocker 600 milliards de fichiers .txt de 200Ko, 30 milliards de MP3 de 4Mo, 171 millions de fichiers vidéos de 700Mo ou encore 2,4 millions de disques Blu-ray complets de 50Go. Cette plus grosse unité de stockage au monde a été réalisée par IBM pour le compte d’un client anonyme qui a besoin “d’un nouveau supercalculateur”…

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

35 commentaires
  1. ôO
    A part google, qui peut avoir besoin d’autant d’espace de stockage
    [troll]Apple pour stocker les données sur leurs utilisateurs?[/troll]

  2. Pour le moment c’est en cour de développement…
    Sinon j’aimerai pas être le gars qui s’occupe de la maintenance dans les premiers mois, sachant que c’est la zone critique en terme de fiabilité d’un HDD. Même avec 5% de disques défectueux, ça donne 10000 disques à remplacer XD
    Sans parler de la maintenance software à proprement parler, quand je vois ce que ça donne de faire des tests ou des copies\Backup\Rebuild sur 5To , la ça va durer des plombes même avec leur super optimisation de la mort.

  3. Error32: sur un supercalculateur, tu as la puissance qui vas avec 😉 mais il est vrai que ça va probablement pas être une partie de plaisir ^^

  4. 30 milliards de MP3… j’suis même pas sûre qu’on puisse en écouter autant dans une vie. (si quelqu’un veut faire le calcul, hein…)

  5. @Taiki: “sur un supercalculateur, tu as la puissance qui vas avec”

    Oui c’est évident. enfin bon c’est pas la vitesse de calcul qui fait tout. ya des limites liés aux disques et au contrôleur, même avec le matos utilisé. 120Po ça doit être galère à gérer.

  6. Error32: en théorie, l’architecture des super calculateur mise beaucoup sur le parallélisme. Pour peu que l’architecture des disque sois aussi basé là-dessus, ça ne prendre le temps que de quelques To…

  7. @Taiki
    Étant donné que les systèmes actuels sont dimensionnés pour faire tourner 16Po, j’imagine mal que l’on puisse passer à 120Po sans contrepartie, même en développant un nouveau Hardware et Software comme c’est la cas.
    Après y a pas plus de détails sur la techno(Tu métonnes XD ) et j’imagine bien qu’avec ce type de projet , vont se pas se lâcher que sur la quantité de Po.

    ps:Il se passe quoi quand la ref du disque est plus dispo pour le remplacement XD

  8. @Claire: Pour ta question, a raison d’une chanson de 3 minutes, tu en écouterais 480 par jour et donc 17 520 000 sur une durée de 100 ans.. Donc 29 982 480 000 ne serais pas écoutées.. A y réfléchir je vais pas faire chanteur. Ramener en probabilité, ça te fais une changer sur 1711 d’être écouté, pour une chanson écrite… Sur ce je range mes.neurones pour là journée..

  9. Error32: Tu m’étonnes 😉
    Mais l’architecture est aussi importante que le matos et sensiblement plus secrète donc je suis pas sûr qu’on ai beaucoup plus de détails un jou 😮

  10. Mais surtout à quoi cela va t il servir ?

    La est la première question que je me pose dans quel but créer se super calculator et pourquoi tant de mystère sur la personne qui le commande?

    😕

  11. Error32> Peu connu du grand public, mais il y a une solution très simple à mettre en œuvre: le système de fichiers globalisé d’IBM nommé GPFS. Ça permet d’avoir un file system étalé sur un très grand nombre de disques, et même de baie de disques dans ce cas. Pas de pb pour les 16Po donc. Il existe aussi Lustre plus connu. Les données sont distribuées par plusieurs noeuds de stockage et des frontaux NFS pour le partage généralement. C’est un super produit.

    Le calculateur fait son job, calculer et fournir des résultats. Les reconstructions de disques sont faites par les contrôleurs des baies SAN directement.

  12. Hum client anonyme… une pays très certainement. Dans quel but ? Y en a pas des milliers… Défense militaire, arme nucléaire, espionnage à très grande échelle…

  13. lescentciels: le coût au Go du SSD est délirant. De plus, ce genre d’ordinateur n’a pas besoin de tels taux de transfert…

  14. Il va peut être essayer de détroner l’autre avec son DD de 5 millions de dollars de données illégales dessus ^^

  15. JastJuck> Pas besoin d’être dans le sensationnalisme ou le complot pour avoir un super calculateur 🙂 Je suis dans le sud-ouest et je vois passer au moins un dossier par mois d’acquisition de ce type de matériel. Dans 99% des cas ce sont des laboratoires de recherche scientifique qui partage leur puissance de calcul pour de nombreux chercheurs (génome, médical, aéronautique, etc)

  16. @Bob: entièrement d’accord, mais là on arrive quand même à des nombres gigantesques…
    J’opterai moi pour la chine !

  17. La vache! tout ça pour stocker ses photos de vacances sur la plage de triffouillis-les-oies, ça fait quand même un peu exagéré… 😳

  18. @Bob on avait bien compris que c’est pas le calculateur qui gère les disques.Mais même avec un SAN en fibre optique et un Systeme de fichier comme GPFS, tu as des contraintes techniques, pour rappel on est pas sur du 16Po mais du 120Po.

    Avec GPFS , IBM a explosé le record(dans l’article) en indexant 10 milliards de fichiers en 43 min. Mais je suis curieux de voir ce que ça va donner en lecture\ecriture, surtout les petits fichiers.

    CHKDSK /R ==> XD

  19. Si mes calculs sont bons, on doit vivre +/- 11415 ans pour pouvoir écouter 30 milliard de MP3 d’environ 5min..

  20. Pas besoin d’être parti sur des plans de conspirations pour avoir la nécessité d’un tel stockage. La recherche en France utilise dans certains établissements des Petadonnées ( Pasteur par exemple avec NetApp). Donc à priori si IBM vend une solution dans la même définition mais en Chine… on multiplie bien par 20/30 les besoins..
    C’est juste que le coût va être faramineux au départ mais aussi en entretien .
    Quand au perf ne vous inquiétez pas, en SAN plus vous avez de disques plus le débit augmente certes passez un cap il stagne mais dans l’ensemble il fournit une performance assez haute pour un système si lourd. Diviser pour mieux régner voilà le mot 😉

    En tout cas ça en faite du pr0n … 😡

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *