Construire des architectures et des applications de calcul Intensif (HPC) optimisées

Les nouvelles technologies et outils de développement logiciel libèrent la puissance d'une gamme complète d'architectures de calcul intensif et de modèles de calcul pour les utilisateurs, les constructeurs de systèmes et les développeurs de logiciels.

Composants de base d'un système HPC

  • La conception de votre système HPC peut impliquer une combinaison d'informatique parallèle, d'informatique en grappes et de stratégies de calcul grille/distribué.

  • Une approche de Cloud hybride qui combine votre infrastructure sur site avec des ressources de Cloud public vous permet de vous adapter au besoin, réduisant ainsi le risque de perte d'opportunités.

  • Les technologies Intel® HPC comprennent les processeurs, la mémoire, la mise en réseau Intel® hautes performances et les logiciels, qui constituent la base de systèmes performants et incroyablement évolutifs.

  • Une programmation d'architecture croisée oneAPI ouverte et basée sur des normes permet d'utiliser des applications HPC qui fonctionnent de manière optimale sur une variété de types d'architecture hétérogènes et de modèles de calcul distribués.

  • Les bibliothèques et les outils Intel® aident les clients à tirer le meilleur parti de nos systèmes grâce à une utilisation efficace du code et des optimisations.

author-image

Par

Dans l'environnement commercial accéléré d'aujourd'hui, la base d'une adoption réussie des technologies HPC commence par une architecture HPC bien définie. En fonction des charges de travail et des objectifs informatiques de votre organisation, différentes conceptions de systèmes HPC et ressources de support sont disponibles pour vous aider à réaliser des gains de productivité et des performances évolutives.

Conception de systèmes HPC

L'architecture HPC prend de nombreuses formes en fonction de vos besoins. Les organisations peuvent choisir différentes façons de concevoir des systèmes HPC.

L'informatique parallèle à travers plusieurs architectures

L'informatique parallèle HPC permet aux clusters HPC d'exécuter de grandes charges de travail et de les diviser en tâches de calcul distinctes qui sont exécutées en même temps.

Ces systèmes peuvent être conçus de manière à pouvoir être étendus ou subdivisés. Les conceptions de type « scale-up » (augmenter l'échelle) consistent à prendre une tâche dans un système unique et de la répartir afin de permettre aux cœurs individuels d'effectuer la tâche, en utilisant autant de serveurs que possible. En revanche, les conceptions de type « scale-out » (monter en charge) consistent à prendre cette même tâche, à la diviser en pièces gérables et à distribuer ces parties à plusieurs serveurs ou ordinateurs tout le travail étant effectué en parallèle.

Les charges de travail intenses telles que les simulations, la modélisation et l'analytique avancée deviennent de plus en plus fréquentes, mais les systèmes HPC sont conçus pour intégrer des accélérateurs en plus des processeurs. Ces accélérateurs ont introduit une gamme plus large et hétérogène de configurations possibles que les développeurs doivent prendre en charge.

Les développeurs peuvent utiliser la programmation inter-architecture oneAPI pour créer une base de code unique utilisable sur les architectures de processeur, de GPU et de FPGA pour un développement plus productif et performant. oneAPI peut accélérer l'innovation HPC en supprimant les contraintes des modèles de programmation propriétaires, en facilitant l'adoption de nouveaux matériels et en réduisant la maintenance du code. Les kits d'outils oneAPI et Intel® oneAPI prennent en charge les normes et les langages ouverts existants dont les développeurs HPC ont besoin, notamment C++, SYCL, Fortran, OpenMP, MPI et Python. Obtenez plus de détails sur les kits d'outils oneAPI et Intel® oneAPI.

Informatique en grappe

Les clusters de calcul intensif relient plusieurs ordinateurs ou nœuds via un réseau local (LAN). Ces nœuds interconnectés agissent comme un seul ordinateur, doté d'une puissance de calcul de pointe. Les clusters HPC sont conçus de manière unique pour résoudre un problème ou exécuter une tâche de calcul complexe en l'étendant sur les nœuds d'un système. Les grappes HPC ont une topologie de réseau définie et permettent aux organisations de s'attaquer aux calculs avancés avec des vitesses de traitement sans compromis.

Calcul en grille et distribué

Le calcul en grille HPC et le calcul distribué HPC sont des architectures informatiques synonymes. Ceux-ci impliquent plusieurs ordinateurs connectés via un réseau qui partagent un objectif commun, comme la résolution d'un problème complexe ou l'exécution d'une tâche de calcul volumineuse. Cette approche est idéale pour traiter les travaux qui peuvent être divisés en segments séparés et répartis sur la grille. Chaque nœud du système peut effectuer des tâches indépendamment sans avoir à communiquer avec d'autres nœuds.

Compatibilité des applications HPC courantes

Intel collabore avec la communauté HPC afin de définir les meilleures pratiques pour le déploiement d'applications HPC et de systèmes de cluster basés sur l'architecture Intel®. La spécification de la plateforme Intel® HPC fournit des exigences logicielles et matérielles communes que les développeurs d'applications peuvent utiliser pour établir les bases des solutions de clusters. Un système conforme à ces exigences fournit un ensemble défini de caractéristiques à la couche applicative, y compris les composants d'exécution des logiciels Intel® qui offrent les meilleures performances. La spécification de la plateforme comprend des informations de configuration et de conformité sur un large domaine d'applications communautaires courantes.

Infrastructure du cloud HPC

Par le passé, les systèmes HPC étaient limités à la capacité et à la conception que l'infrastructure sur site pouvait fournir. Aujourd'hui, le Cloud étend la capacité locale à d'autres ressources.

Les dernières plateformes de gestion du Cloud rendent possible une approche de Cloud hybride qui associe l'infrastructure sur site aux services de Cloud public afin que les charges de travail puissent être transmises sans problème à toutes les ressources disponibles. Cela permet une plus grande flexibilité dans le déploiement des systèmes HPC et la rapidité de leur augmentation d'échelle, ainsi que la possibilité d'optimiser le coût total de possession (TCO).

Généralement, un système HPC sur site offre un TCO inférieur à l'équivalent du système HPC réservé 24 h sur 24/7 jours sur 7 dans le Cloud. Cependant, une solution sur site dimensionnée pour la capacité de pointe ne sera pleinement utilisée que lorsque cette capacité de pointe sera atteinte. La plupart du temps, la solution sur site peut être sous-utilisée, ce qui entraîne des ressources inactives. Cependant, une charge de travail qui ne peut pas être calculée en raison d'un manque de capacité disponible peut entraîner une perte d'opportunité.

En résumé, l'utilisation du Cloud pour augmenter votre infrastructure HPC sur site pour des tâches sensibles au temps peut atténuer le risque de manquer de grandes opportunités.

Pour stimuler l'innovation HPC dans le Cloud, Intel travaille en profondeur avec les fournisseurs de services Cloud afin d'optimiser les performances et d'appliquer des technologies telles qu'Intel® Software Guard Extensions (Intel® SGX) et Intel® Advanced Vector Extensions 512 (Intel® AVX-512) et de simplifier l'intégration. En savoir plus sur nos technologies HPC dans le Cloud et sur la manière dont elles peuvent contribuer à améliorer les résultats.

Sélection des processeurs HPC pour l'évolutivité et la performance

Grâce à notre grande expertise dans les technologies HPC, Intel offre les performances nécessaires pour gérer les futures charges de travail les plus exigeantes. Les processeurs Intel® Xeon® Scalable offrent une plateforme hautement polyvalente qui peut évoluer de manière transparente pour prendre en charge les diverses exigences de performances des charges de travail HPC critiques. Nos prochains GPU pour centres de données, basés sur la microarchitecture Xe HPG, constitueront un complément idéal aux processeurs Intel® Xeon® Scalable, permettant d'accroître encore davantage les performances.

En collaboration avec notre écosystème, Intel a donné la priorité à la création de plans qui permettent d'optimiser la conception des systèmes HPC. Pour valider les exigences de performances, Intel® Cluster Checker (qui fait partie du kit d'outils Intel® oneAPI HPC) garantit que votre système de cluster HPC est intact et configuré pour exécuter des applications parallèles avec une portabilité incroyable pour passer d'un système sur site à un système HPC dans le Cloud.

Avec la technologie Intel® CoFluent™, vous pouvez accélérer le déploiement de systèmes complexes et déterminer les paramètres optimaux en modélisant les interactions matérielles et logicielles simulées.

Une avancée dans la mémoire HPC

La mémoire fait partie intégrante de la conception des systèmes HPC. Responsable du stockage de données à court terme d'un système, la mémoire peut être un facteur limitant pour les performances de votre flux de travail. La technologie Intel® Optane™ permet de surmonter ces goulots d'étranglement dans le centre de données en comblant les lacunes dans la hiérarchie de stockage et de mémoire afin que vous puissiez continuer à alimenter les calculs.

La mémoire à large bande passante a fait ses preuves lorsqu'elle est incluse dans les GPU utilisés dans la programmation HPC et sera bientôt disponible sur les processeurs x86 également. Dans de nombreux cas, les technologies de mémoire à large passante peuvent accélérer les codes qui sont limités par la bande passante de la mémoire sans modification du code. Cela permet également de réduire les coûtes de la mémoire DDR.

Mise à l'échelle des performances avec HPC Fabric

Pour faire évoluer efficacement les petits systèmes HPC, les entreprises ont besoin d'une infrastructure hautes performances conçue pour prendre en charge les clusters HPC.

La mise en réseau Intel® hautes performances (HPN, Intel® high performance networking) fournit des performances optimisées en utilisant des technologies Ethernet familières et rentables. Cela donne aux gestionnaires de cluster une solution de bout en bout qui couvre leurs besoins en formation HPC et de Machine Learning. Les Middleware et les infrastructures HPC et d'IA les plus répandus, y compris oneAPI, peuvent être utilisés avec Intel® HPN grâce aux interfaces OpenFabrics (OFI, également connues sous le nom de libfabric) et à Intel® Ethernet Fabric Suite.

Un accès plus facile vers la réussite HPC

Intel fournit l'expertise nécessaire pour comprendre en profondeur les applications et les architectures HPC et ce dont un système HPC, qu'il soit sur site, dans le Cloud ou hybride, a besoin pour aider les utilisateurs à produire des résultats et à maximiser leurs réalisations. Avec une architecture HPC s'appuyant sur une base de technologies Intel®, vous serez prêt à répondre aux besoins HPC, exascale et zettascale du futur.

De plus, nos kits d'outils oneAPI sont prêts à aider les développeurs à simplifier leurs efforts de programmation HPC, ce qui leur permet de prendre en charge davantage de types de matériel et de maximiser les résultats commerciaux.

FAQ

Forum aux questions

L'architecture de calcul intensif fait référence aux différents composants utilisés pour construire des systèmes HPC et à la façon dont ils sont emballés ensemble. Souvent, ces composants comprennent un processeur et un accélérateur tel qu'un FPGA ou un GPU, ainsi que de la mémoire, du stockage et des composants de mise en réseau. Les nœuds ou les serveurs de diverses architectures travaillent ensemble en unisson, que ce soit en tant que nœuds parallèles ou en clusters, pour gérer des tâches de calcul complexes.

Trois des composants les plus critiques pour n'importe quel système HPC sont le processeur, n'importe quel accélérateur requis tel qu'un FPGA ou un GPU et la connectivité de mise en réseau requise. La mémoire à large bande passante est une autre considération essentielle.