Beaucoup d’entre nous connaissent des ordinateurs. Vous en utilisez probablement un maintenant pour lire ce billet de blog, car les appareils tels que les ordinateurs portables, les smartphones et les tablettes sont essentiellement la même technologie informatique sous-jacente. Les superordinateurs, en revanche, sont quelque peu ésotériques car ils sont souvent considérés comme énormes, coûteux, machines d'aspiration d'énergie développées, dans l'ensemble, pour les institutions gouvernementales, les centres de recherche et les grandes entreprises.
Prenez par exemple le chinois Sunway TaihuLight, actuellement le supercalculateur le plus rapide au monde, selon le classement des supercalculateurs du Top500. Il est composé de 41 000 puces (les processeurs à eux seuls pèsent plus de 150 tonnes), coûtent environ 270 millions de dollars et ont une puissance nominale de 15 371 kW. Du côté positif, cependant, il est capable d'effectuer des quadrillions de calculs par seconde et peut stocker jusqu'à 100 millions de livres. Et comme d'autres supercalculateurs, il sera utilisé pour s'attaquer à certaines des tâches les plus complexes dans les domaines scientifiques tels que les prévisions météorologiques et la recherche sur les médicaments.
Quand les superordinateurs ont été inventés
La notion de supercalculateur est apparue dans les années 1960 lorsqu'un ingénieur électricien du nom de Seymour Cray s'est lancé dans la création de l'ordinateur le plus rapide au monde. Cray, considéré comme le «père du supercalcul», avait quitté son poste chez le géant de l'informatique d'entreprise Sperry-Rand rejoint la nouvelle Control Data Corporation afin de se concentrer sur le développement ordinateurs scientifiques. Le titre d'ordinateur le plus rapide au monde était détenu à l'époque par l'IBM 7030 «Stretch», l'un des premiers à utiliser des transistors à la place des tubes à vide.
En 1964, Cray a présenté le CDC 6600, qui présentait des innovations telles que la désactivation des transistors au germanium au profit du silicium et un système de refroidissement à base de fréon. Plus important encore, il fonctionnait à une vitesse de 40 MHz, exécutant environ trois millions d'opérations en virgule flottante par seconde, ce qui en faisait l'ordinateur le plus rapide au monde. Souvent considéré comme le premier supercalculateur au monde, le CDC 6600 était 10 fois plus rapide que la plupart des ordinateurs et trois fois plus rapide que le IBM 7030 Stretch. Le titre est finalement cédé en 1969 à son successeur le CDC 7600.
Seymour Cray devient solo
En 1972, Cray quitte Control Data Corporation pour fonder sa propre entreprise, Cray Research. Après un certain temps à mobiliser des capitaux d'amorçage et des financements auprès des investisseurs, Cray a fait ses débuts avec le Cray 1, qui a encore une fois élevé la barre pour les performances informatiques. Le nouveau système fonctionnait à une vitesse d'horloge de 80 MHz et effectuait 136 millions d'opérations en virgule flottante par seconde (136 mégaflops). D'autres caractéristiques uniques incluent un nouveau type de processeur (traitement vectoriel) et une conception en forme de fer à cheval à vitesse optimisée qui minimise la longueur des circuits. Le Cray 1 a été installé au Laboratoire national de Los Alamos en 1976.
Dans les années 1980, Cray s'était imposé comme le nom prééminent dans le supercalcul et toute nouvelle version devait largement faire échouer ses efforts précédents. Ainsi, alors que Cray était occupé à travailler sur un successeur du Cray 1, une équipe distincte de la société a sorti le Cray X-MP, un modèle qui a été présenté comme une version plus «nettoyée» du Cray 1. Il partageait la même conception en forme de fer à cheval, mais possédait plusieurs processeurs, une mémoire partagée et est parfois décrit comme deux Cray 1 liés ensemble en un seul. Le Cray X-MP (800 mégaflops) a été l'une des premières conceptions «multiprocesseurs» et a aidé à ouvrir la porte à traitement parallèle, dans lequel les tâches de calcul sont divisées en parties et exécutées simultanément par différent processeurs.
Le Cray X-MP, qui était continuellement mis à jour, a servi de porte-étendard jusqu'au lancement tant attendu du Cray 2 en 1985. Comme ses prédécesseurs, le dernier et le plus grand de Cray a adopté la même conception en forme de fer à cheval et la même configuration de base avec des circuits intégrés empilés sur des cartes logiques. Cette fois, cependant, les composants étaient si serrés que l'ordinateur a dû être immergé dans un système de refroidissement liquide pour dissiper la chaleur. Le Cray 2 est équipé de huit processeurs, dont un «premier plan» en charge de la gestion du stockage, mémoire et donner des instructions aux «processeurs d'arrière-plan», qui étaient chargés du calcul proprement dit. Au total, il a atteint une vitesse de traitement de 1,9 milliard opérations en virgule flottante par seconde (1,9 Gigaflops), deux fois plus rapide que le Cray X-MP.
Plus de concepteurs informatiques émergent
Inutile de dire que Cray et ses créations ont régné au début de l'ère du supercalculateur. Mais il n'était pas le seul à avancer sur le terrain. Le début des années 80 a également vu l'émergence d'ordinateurs massivement parallèles, alimentés par des milliers de processeurs travaillant tous en tandem pour briser les barrières de performance. Certains des premiers systèmes multiprocesseurs ont été créés par W. Daniel Hillis, qui a eu l'idée en tant qu'étudiant diplômé au Massachusetts Institute of Technology. L'objectif à l'époque était de surmonter les limitations de vitesse liées au fait d'avoir un calcul direct entre autres en développant un réseau décentralisé de processeurs fonctionnant de manière similaire aux neurones du cerveau réseau. Sa solution implémentée, introduite en 1985 sous le nom de Connection Machine ou CM-1, comprenait 65 536 processeurs mono-bit interconnectés.
Le début des années 90 a marqué le début de la fin de l'emprise de Cray sur le supercalcul. À ce moment-là, le pionnier des superordinateurs s'était séparé de Cray Research pour former Cray Computer Corporation. Les choses ont commencé à aller au sud pour l'entreprise lorsque le projet Cray 3, le futur successeur du Cray 2, a rencontré une multitude de problèmes. L'une des principales erreurs de Cray a été d'opter pour des semi-conducteurs à base d'arséniure de gallium - une technologie plus récente - comme moyen d'atteindre son objectif déclaré d'une augmentation de douze fois la vitesse de traitement. En fin de compte, la difficulté de les produire, ainsi que d'autres complications techniques, ont fini par retarder le projet pendant des années et a entraîné la perte de nombreux clients potentiels de la société l'intérêt. En peu de temps, l'entreprise a manqué d'argent et a déposé une la faillite en 1995.
Les luttes de Cray céderaient la place à un changement de garde, car les systèmes informatiques japonais concurrents finiraient par dominer le domaine pendant une grande partie de la décennie. NEC Corporation, basée à Tokyo, est apparue pour la première fois en 1989 avec le SX-3 et un an plus tard a dévoilé une version à quatre processeurs qui est devenue l'ordinateur le plus rapide au monde, pour être éclipsée en 1993. Cette année-là, la soufflerie numérique de Fujitsu, avec la force brute de 166 processeurs vectoriels, est devenue le premier supercalculateur à dépasser 100 gigaflops (note latérale: pour vous idée de la rapidité avec laquelle la technologie progresse, les processeurs grand public les plus rapides en 2016 peuvent facilement faire plus de 100 gigaflops, mais à l'époque, c'était particulièrement impressionnant). En 1996, le Hitachi SR2201 a fait monter les enchères avec 2048 processeurs pour atteindre une performance maximale de 600 gigaflops.
Intel rejoint la course
Maintenant, où était Intel? L'entreprise qui s'était imposée comme le premier fabricant de puces du marché de la consommation n'a pas vraiment fait sensation dans le domaine de la superinformatique jusqu'à la fin du siècle. En effet, les technologies étaient des animaux très différents. Les supercalculateurs, par exemple, ont été conçus pour brancher autant de puissance de traitement que possible les ordinateurs avaient pour but de réduire l'efficacité de capacités de refroidissement minimales et d'un approvisionnement énergétique limité. Ainsi, en 1993, les ingénieurs d'Intel ont finalement franchi le pas en adoptant l'approche audacieuse d'aller massivement en parallèle avec le 3 680 processeurs Intel XP / S 140 Paragon, qui, en juin 1994, étaient montés au sommet du supercalculateur classements. Ce fut le premier supercalculateur à processeur massivement parallèle à être incontestablement le système le plus rapide au monde.
Jusqu'à présent, le calcul intensif a été principalement le domaine de ceux qui ont le genre de poches profondes pour financer des projets aussi ambitieux. Tout a changé en 1994 lorsque les entrepreneurs du Goddard Space Flight Center de la NASA, qui n’avaient pas ce genre de luxe, ont trouvé un façon intelligente d'exploiter la puissance de l'informatique parallèle en reliant et en configurant une série d'ordinateurs personnels à l'aide d'un réseau Ethernet réseau. Le système «Beowulf cluster» qu'ils ont développé était composé de 16 processeurs 486DX, capables de fonctionner dans la gamme gigaflops et coûtait moins de 50 000 $ à construire. Il avait également la particularité d'exécuter Linux plutôt qu'Unix avant que Linux ne devienne le système d'exploitation de choix pour les supercalculateurs. Bientôt, les bricoleurs du monde entier ont suivi des plans similaires pour créer leurs propres clusters Beowulf.
Après avoir abandonné le titre en 1996 à l'Hitachi SR2201, Intel est revenu cette année-là avec un design basé sur le Paragon appelé ASCI Red, qui était composé de plus de 6000 200 MHz Processeurs Pentium Pro. Malgré l'abandon des processeurs vectoriels au profit de composants standard, l'ASCI Red a gagné la distinction d'être le premier ordinateur à franchir la barrière du billion de flops (1 téraflops). En 1999, des améliorations lui ont permis de dépasser trois billions de flops (3 téraflops). L’ASCI Red a été installé aux Sandia National Laboratories et a été utilisé principalement pour simuler des explosions nucléaires et aider à l’entretien du arsenal nucléaire.
Après que le Japon ait repris la tête du calcul intensif pendant une période avec le NEC Earth Simulator 35,9 téraflops, IBM a porté le calcul intensif à des sommets sans précédent à partir de 2004 avec le Blue Gene / L. Cette année-là, IBM a lancé un prototype qui a à peine devancé le Earth Simulator (36 téraflops). Et d'ici 2007, les ingénieurs augmenteraient le matériel pour pousser sa capacité de traitement à un pic de près de 600 téraflops. Fait intéressant, l'équipe a pu atteindre de telles vitesses en adoptant l'approche consistant à utiliser plus de puces de puissance relativement faible, mais plus économes en énergie. En 2008, IBM a de nouveau ouvert la voie en allumant le Roadrunner, le premier supercalculateur à dépasser un quadrillion d'opérations en virgule flottante par seconde (1 pétaflops).