Marc Aubert
- Posts de Forum 369
30 nov. 2013 à 02:57:49 via site
30 nov. 2013 02:57:49 via site
Les chinois produisent du matos pas cher entre autres les puces et bien voila ce qu'ils en font : le plus puissant supercomputeur installé sur la planète, le Tianhe-2 (le deuxième du nom, le précédent était déjà au top).
Le joujou est composé, accrochez-vous, de 3 120 000 cœurs à base d'Intel Xeon à 2,2 GHz. Il a une puissance de 34 pétaflops (55 en pointe).
Un pétaflops, kézako ? Un million de milliards d'opérations en virgule flottante par seconde. On parle d'opérations en virgule flottante (très lourdes en cycles d'horloge), pas d'instructions de base (le bon vieux MIPS).
Faut juste construire une centrale électrique pour lui fournir les 18 mégawatts qu'il consomme. Et puis il a fallu un petit peu de custo de Linux pour le gérer.
Eh ouais, l'autre info majeur de la conférence SC13 (Denver) est que sur les 500 plus gros supercomputers seuls 18 ne sont pas intégralement Linux (plus de 96%). Sur les 18, 11 sont sous Unix (Solaris, HP-UX, AIX), 1 sous BSD (ça reste dans les Unix-like), 4 ont plusieurs OS (dont Linux) et 2 sous Windows server (ça marche ?).
Aux places suivantes et à distance respectables, on trouve Cray (18 péta) , IBM (17 péta), Fujistu (13 péta) ... le premier européen est suisse (6,3 péta, probablement utilisé par le CERN pour la chasse au bosons et autres neutrinos) et deux allemands dans les 10 premiers.
Bon soyons clairs, ces babasses ne servent pas à jouer à Candy Crush ni de "number crunchers" chez Google (ça, c'est top secret) mais aux calculs massivement paralléles c'est-à-dire les algos de simulations genre modèle physique des hautes énergies, climatologie, météo, calcul de structure, nucléaire, astrophysique ...etc.).
Le plus rigolo et ça relativise les choses est que le Linux utilisé ne doit pas être compilé significativement plus vite sur ces monstres que sur un gros PC ...
Un compilateur n'est pas parralélisable tout comme la plupart des logiciels (certains jeux le sont en partie). Ce n'est pas pour demain, ni après-demain qu'on aura des dizaines de cœurs dans les PC de bureau. Non pas qu'on ne puisse pas faire (la preuve) mais ça ne servirait à rien. Ce qui coince n'est pas la techno mais l'algo.
D'ailleurs, ces dernières années, les annonces des Intel ou AMD marquent le pas même en fréquence d'horloge (pour des raisons de dissipation thermique cette fois).
Toujours est-il que le péril jaune ... nous réserve encore des surprises.
Source : http://www.top500.org/lists/2013/11/
Le joujou est composé, accrochez-vous, de 3 120 000 cœurs à base d'Intel Xeon à 2,2 GHz. Il a une puissance de 34 pétaflops (55 en pointe).
Un pétaflops, kézako ? Un million de milliards d'opérations en virgule flottante par seconde. On parle d'opérations en virgule flottante (très lourdes en cycles d'horloge), pas d'instructions de base (le bon vieux MIPS).
Faut juste construire une centrale électrique pour lui fournir les 18 mégawatts qu'il consomme. Et puis il a fallu un petit peu de custo de Linux pour le gérer.
Eh ouais, l'autre info majeur de la conférence SC13 (Denver) est que sur les 500 plus gros supercomputers seuls 18 ne sont pas intégralement Linux (plus de 96%). Sur les 18, 11 sont sous Unix (Solaris, HP-UX, AIX), 1 sous BSD (ça reste dans les Unix-like), 4 ont plusieurs OS (dont Linux) et 2 sous Windows server (ça marche ?).
Aux places suivantes et à distance respectables, on trouve Cray (18 péta) , IBM (17 péta), Fujistu (13 péta) ... le premier européen est suisse (6,3 péta, probablement utilisé par le CERN pour la chasse au bosons et autres neutrinos) et deux allemands dans les 10 premiers.
Bon soyons clairs, ces babasses ne servent pas à jouer à Candy Crush ni de "number crunchers" chez Google (ça, c'est top secret) mais aux calculs massivement paralléles c'est-à-dire les algos de simulations genre modèle physique des hautes énergies, climatologie, météo, calcul de structure, nucléaire, astrophysique ...etc.).
Le plus rigolo et ça relativise les choses est que le Linux utilisé ne doit pas être compilé significativement plus vite sur ces monstres que sur un gros PC ...
Un compilateur n'est pas parralélisable tout comme la plupart des logiciels (certains jeux le sont en partie). Ce n'est pas pour demain, ni après-demain qu'on aura des dizaines de cœurs dans les PC de bureau. Non pas qu'on ne puisse pas faire (la preuve) mais ça ne servirait à rien. Ce qui coince n'est pas la techno mais l'algo.
D'ailleurs, ces dernières années, les annonces des Intel ou AMD marquent le pas même en fréquence d'horloge (pour des raisons de dissipation thermique cette fois).
Toujours est-il que le péril jaune ... nous réserve encore des surprises.
Source : http://www.top500.org/lists/2013/11/
Contenu éditorial recommandé
Avec ton accord, un contenu externe est chargé ici.
En cliquant sur le bouton ci-dessus, tu acceptes que des contenus externes soient affichés. Des données personnelles peuvent alors être transmises à des fournisseurs tiers. Tu trouveras plus d'informations à ce sujet dans notre Déclaration de protection de données.