Keyword - HPC

Entries feed - Comments feed

18 June 2008

Nouveau classement du Top500 - Pétaflop!

Top 500

Le nouveau classement des 500 supercalculateurs les plus puissants dans le monde, publié deux fois par an par le site top500.org, replace les États-Unis dans les 5 premières places du classement. Une fois de plus, l’écrasante majorité des systèmes ont été conçus par des compagnies américaines, avec notamment les systèmes IBM et HP qui représentent 78% du classement.

Plus, toujours plus

Le précédent classement, de novembre 2007, avait vu trois calculateurs non-américains entrer dans le top10. Il avait aussi vu une entrée de 5 nouveaux systèmes dans ce top10. Ce nouveau classement, outre l’introduction du premier calculateur dépassant le téraflop (voir BE 127), change la hiérarchie de façon importante puisque seuls 4 systèmes du top10 d’il y a 6 mois sont encore présents dans ce top10. Tous les systèmes du top10 dépassent les 100 téraflops.

Le système BlueGene/L du « Lawrence Livermore National Laboratory », resté numéro 1 pendant 3 ans et demi, est dorénavant numéro 2. Le troisième système est un nouveau système BlueGene/P, situé à l’« Argonne National Laboratory ». Enfin, les grands laboratoires américains dépendant du « Department of Energy » ajoutent le 5ème système à leur palmarès avec un nouveau système fait par Cray à l’ « Oak Ridge National Laboratory ».

Il est notable que, pour la première fois depuis longtemps, un système du top10 soit installé chez un industriel (Total).

Technos

Technologiquement, sur l’ensemble du classement, les processeurs Intel se trouvent dorénavant dans 75% des systèmes et son architecture à quadri-cœur se trouve dans plus de la moitié des systèmes (20% des systèmes il y a 6 mois). Les interconnexions sont majoritairement basé sur du Gigabit Ethernet bien que cette technologie soit absente dans le top50. Linux reste le système d’exploitation le plus utilisé dans les systèmes du classement avec 80% des parts de marchés.

USA vs. world.

Les États-Unis restent dominants dans le calcul haute-performance, avec plus de la moitié des systèmes sur leur sol, mais la part Européenne s’améliore avec 37% des systèmes du top 500. La France, encore derrière le Royaume-Uni et l’Allemagne s’améliore et possède deux systèmes dans le top10.

Pour la première fois, le top500 calcule l’efficacité avec la performance rapportée à la consommation. Et le premier est le premier. :D

Source

Top 500

16 May 2008

Statistiques sur les articles scientifiques

Bonjour à tous les lecteurs.

Dans ma catégorie Science et Technologie, qui est principalement en français, j'ai fait quelques statistiques.

Nombres

J'ai écrit 36 articles dans cette catégorie. J'en ai écrit d'autres qui n'ont jamais été publiés... :D

Sujets

Je parle de plusieurs sujets scientifiques, mais certains reviennent plus que d'autres:

Lecteurs

Le nombre de lecteurs se chiffre en centaines, et ne porte pas seulement sur le flux RSS.

Je sais que je dois bosser sur l'interface du site, je vais voir si j'ai le temps.

14 May 2008

Supercalculateur à base de microprocesseurs embarqués

Supercalculateurs

Les super-calculateurs cherchent à développer la puissance de calcul la plus importante, et utilisent, en général, les microprocesseurs les plus rapides mais qui sont aussi les plus consommateurs d'énergie. Ainsi, la problématique énergétique est devenue un des problèmes les plus importants dans le monde des supercalculateurs, car il n'est pas rare de voir des centres de calculs consommant plusieurs mégawatts, une partie importante de l'énergie étant utilisée pour refroidir et évacuer la chaleur dégagée par les machines.

Processeurs embarqués

Trois chercheurs du Lawrence Berkeley National Laboratory (LBNL), laboratoire national dépendant du Department of Energy, viennent de proposer une solution pour un calculateur travaillant sur des problématiques de réchauffement climatique. Au lieu d'utiliser des processeurs pour serveurs ou pour ordinateurs de bureau ou encore des processeurs vectoriels utilisés dans les cartes graphiques, ils utilisent des processeurs pour matériel embarqué, ceux que l'ont trouve dans la plupart des assistants personnels, appareils numériques multimédias ou localisateurs GPS.

Ces processeurs embarqués sont moins chers, moins performants, mais beaucoup plus petits et plus efficaces énergétiquement que les processeurs habituellement utilisés. En contrepartie, il faut énormément plus de processeurs pour arriver à la même performance. En outre, cela nécessite aussi une nouvelle topologie de réseau.

Recherche climatologique

Afin d'améliorer les modèles numériques pour le climat, et d'avoir une précision de l'ordre du km, les techniques actuelles demanderaient des ordinateurs qui coûteraient environ 1 milliard de dollars et consommeraient près de 200 mégawatts.

Coût et puissance.

Dans le projet du LBNL, 20 millions de processeurs seraient utilisés et le système coûterait environ 75 millions de dollars à construire, et consommerait seulement 4 mégawatts. La puissance atteinte serait de 200 pétaflops.

Cette approche est possible pour des applications très parallélisables mais n'est pas applicable à toutes les applications, car les communications inter-nodales ne sont pas aussi performantes que dans un supercalculateur classique, tous les nœuds n'ayant pas de liens directs entre eux.

Source

Berkeley Lab Researchers Propose a New Breed of Supercomputers for Improving Global Climate Predictions

22 March 2008

Création de centres de recherche universitaire avec Microsoft et Intel

Multi-core et programmation

Le ralentissement de l'augmentation des performances pures des processeurs et de leur montée en fréquence a poussé les fabricants de microprocesseurs à utiliser des techniques pour multiplier le parallélisme des machines. Ainsi, la multiplication du nombre de coeurs dans les microprocesseurs et l'utilisation de technologies comme l'HyperThreading (plusieurs tâches simultanées sur un seul coeur), ont augmenté le nombre de tâches que les processeurs pouvaient exécuter en parallèle et concurrentiellement. Cette tendance ne semble pas prête de s'inverser, au vu des prévisions d'Intel.

Malheureusement, les techniques de programmation parallèle, dite de type "multithreadé", restent très complexes et ne se sont pas suffisamment adaptées à ces changements. Tout d'abord, les bibliothèques de programmation parallèle sont assez nombreuses et ne sont pas assez standardisées. En outre, ces nouveaux paradigmes rendent la programmation plus complexe et introduisent de nouvelles sources d'erreurs possibles.

Microsoft & Intel investissent dans les universités.

Afin de travailler sur ce sujet, Microsoft Research et Intel R&D ont annoncé, cette semaine, un partenariat de recherche avec l'université de Berkeley (Université de Californie) et l'université de l'Illinois à Urbana-Champaign (UIUC) afin de créer deux centres nommés "Universal Parallel Computing Research Centers" (UPCRC).

Ces universités ont été choisies parce qu'elles se sont déjà illustrées dans le domaine, notamment le département EECS de Berkeley. Le très renommé professeur David Patterson, spécialiste d'architecture des ordinateurs, de l'université de Berkeley, dirigera un de ces centres. Les professeurs Marc Snir et Wen-Mei Hwu d'UIUC codirigeront l'autre centre.

Microsoft et Intel investiront 20 millions de dollars dans le projet sur 5 ans, et les deux universités financeront 15 autres millions dans le même laps de temps.

Sources et liens

  1. Annonce
  2. White Paper sur la programmation parallèle du département EECS de Berkeley

21 November 2007

SuperComputing: Open Grid Forum et Microsoft

L'« Open Grid Forum » est un regroupement international de chercheurs, de développeurs et d'utilisateurs, basé à Chicago. Un de ses buts premiers est l'interopérabilité pour les grilles de calculs. L’OGF s'est formée en Juin 2006, par la fusion du « Global Grid Forum » (GGF) et de l'« Enterprise Grid Alliance » (EGA). Malgré un démarrage assez difficile, l'OGF a pris de l'importance lors de la dernière conférence du SuperComputing (SC07, Reno, Nevada, USA).

L'OGF y a fait une démonstration de nombreuses applications, avec son groupe de travail « Grid Interoperation Now » (GIN) à travers plusieurs réseaux hétérogènes, et des grilles majeures du monde du calcul telles que celles de TeraGrid, de l'EGEE, du NAREGI, de NorduGrid, de l'Open Science Grid, du Pragma, de la DEISA, de l'UK National Grid Service et de l'APAC. Ces applications comprennent des nouveaux langages et nouveaux protocoles, pour la gestion des tâches et des soumissions (JSDL et BES), du stockage (GSM), des API de commandes et d'Échanges de données (GridRPC, SAGA, GIR) et des protocoles réseaux (GFTP, NML, NM et INFOD).

Cependant, l'événement majeur pour l'OGF concerne son adoption dans des applications par les professionnels du secteur, annoncé juste après le SuperComputing. En effet, le profil de base de HPC de l'OGF se trouvera dans les produits de Microsoft (avec HPC Serveur 2008), de Altair (avec BS Professional) et de Platform Computing (avec Platform LSF Pro). Ainsi, les grilles basées sur ses produits devraient pouvoir partager leur calcul comme s'ils utilisaient le même produit.

Cette annonce est stratégique pour Microsoft, qui vient de publier la première béta de son système Windows HPC Server 2008. En effet, la part des produits de Microsoft a été fortement réduite dans le monde du HPC (voir le BE 100), principalement pour des raisons de performances et de systèmes vieillissants (la dernière version date de 2003). C'est pourtant un marché des plus dynamiques, qui reste en pleine croissance et qui consomme actuellement plus d'un quart du marché des processeurs (contre 16% il y a 3 ans). Microsoft a donc investi dans ses produits de HPC, avec sa nouvelle plate-forme nettement plus performante (30% annoncés) que la précédente, avec de nouveaux outils de simplification de déploiement, et des extensions de sa plateforme de développement .Net, spécialisées dans le calcul haute-performance. Enfin, Microsoft a choisi d'utiliser des standards comme OpenMP, MPI, déjà très répandues, ainsi que les standards de l'OGF.