Diverses architectures pour une innovation inégalée
Profitez d'un choix inédit d'architectures pour répondre à tous les besoins de calcul.
Couvrir l'ensemble du spectre de calcul
La gamme d'applications de calcul, aujourd'hui très variée, s'agrandit de jour en jour, en particulier avec la prolifération des données, l'edge computing et l'intelligence artificielle. Cependant, les différentes charges de travail nécessitent différents types de calcul.
Intel bénéficie d'un positionnement unique pour proposer une offre diversifiée d'architectures scalaires, vectorielles, matricielles et spatiales déployées dans des sockets de processeurs, processeurs graphiques (GPU), accélérateurs et FPGA. Nos clients peuvent ainsi appliquer le type de calcul le plus approprié, à l'emplacement nécessaire. Alliées à des interconnexions évolutives et à une abstraction logicielle unique, les diverses architectures d'Intel couvrent l'ensemble du spectre de calcul pour alimenter un monde centré sur les données (« data-centric »).

- L'architecture scalaire fait généralement référence au type de charges de travail optimales sur un processeur, où un flux d'instructions fonctionne à un rythme donné, généralement déterminé par les cycles d'horloge du processeur. Du démarrage du système et des applications de productivité aux charges de travail avancées telles que la cryptographie et l'IA, les processeurs scalaires fonctionnent sur un large éventail de topographies avec des performances constantes et prévisibles.
- L'architecture vectorielle est optimale pour les charges de travail, qui peuvent être décomposées en vecteurs d'instructions ou en vecteurs d'éléments de données. Les cartes graphiques et les unités de traitement de la vision fournissent un traitement parallèle vectoriel permettant d'accélérer le rendu graphique pour les jeux, les médias riches, l'analyse ainsi que la formation et l'inférence de l'apprentissage profond. En mettant à niveau les architectures vectorielles du client, du centre de données et de la périphérie, nous pouvons faire passer les performances du traitement parallèle du gigaFLOPS au teraFLOPS, au petaFLOPS et à l'exaFLOPS.
- L'architecture matricielle tire son nom d'une opération commune généralement effectuée pour les charges de travail d'IA (multiplication matricielle). Bien que d'autres architectures puissent exécuter un code de multiplication matricielle, les ASIC ont traditionnellement atteint les meilleures performances en mettant en œuvre le type d'opérations généralement nécessaires pour l'inférence et l'apprentissage de l'IA, y compris la multiplication matricielle.
- L'architecture spatiale1 est une architecture spéciale généralement associée à un FPGA. Ici, les données circulent à travers la puce, et l'opération informatique effectuée sur l'élément de données est basée sur l'emplacement physique des données dans le dispositif. L'algorithme spécifique de transformation des données qui a été programmé dans le FPGA.
Focalisé sur le scalaire : Polyvalent, à usage général
Du démarrage du système aux applications de productivité en passant par les charges de travail avancées comme le chiffrement et l'IA, la plupart des besoins en calcul sont couverts par des processeurs scalaires. Les processeurs fonctionnent sur une large gamme de topographies, offrant des performances homogènes et prévisibles.
Intel fournit deux microarchitectures de classe mondiale pour les processeurs : la microarchitecture de cœur efficace et la microarchitecture de cœur performante. Ces microarchitectures sont au centre des différentes gammes de processeurs pour Intel, des appareils mobiles à faible PDT aux puissants centres de données basés sur Xeon®. Notre gamme évolutive de processeurs permet aux clients d'équilibrer les performances, l'efficacité énergétique et les coûts.
Centré sur les vecteurs : Traitement hautement parallèle
Les unités de traitement graphique, ou les GPU, fournissent un traitement parallèle vectoriel pour accélérer les charges de travail telles que le rendu graphique en temps réel pour les jeux. Parce qu'elles excellent dans le calcul parallèle, les cartes graphiques sont également une bonne option pour accélérer le deep learning et d'autres charges de travail de calcul intensif.
Les cartes graphiques intégrées d'Intel apportent d'excellents visuels à des millions de PC. Avec l'architecture Xe, nous avons élargi notre portefeuille d'IP de cartes graphiques pour l'adapter aux applications discrètes des clients et des centres de données. Fournir des fonctionnalités accrues dans des domaines en pleine expansion, notamment les médias enrichis, les graphiques et les analyses.
Notre portefeuille actuel d'IP de cartes graphiques fera passer les performances de traitement parallèle de teraFLOPS à petaFLOPS et à exaFLOPS. Il comprend 3 microarchitectures :
- Xe LP pour des graphiques efficaces
- Xe HPG pour les graphiques hautes performances
- Xe HPC pour un calcul intensif
Les microarchitectures Xe HPG et Xe HPC sont conçues avec un nouveau bloc de calcul que nous appelons Xe-core Les Xe-cores intègrent la composition d'un ensemble de moteurs vectoriels et peuvent être optimisés pour différentes charges de travail et segments de marché, notamment avec l'ajout de Xe Matrix Extensions (XMX) pour accélérer la formation et l'inférence d'IA.
La famille de cartes graphiques Alchemist comprendra le processeur Xe HPG avec XMX et des fonctions graphiques avancées optimisées pour DirectX 12 Ultimate.
Les cartes graphiques Ponte Vecchio sont conçues pour les centres de données avec des capacités de mise à l'échelle, de calcul et XMX améliorées.
Centrées sur la matrice : Accélérateurs et nouvelles instructions de processeur
Du centre de données aux appareils en périphérie, l'IA continue de pénétrer tous les aspects du spectre de calcul. À cette fin, nous avons développé des accélérateurs spécialement conçus et ajouté des améliorations microarchitecturales à nos processeurs, ainsi que de nouvelles instructions permettant d'accélérer les charges de travail de l'IA.
Un circuit intégré spécifique à une application (ASIC) est un type de processeur qui est construit de A à Z pour une utilisation précise. Dans la plupart des cas, les ASIC offrent les meilleures performances de leur catégorie pour les charges de travail de calcul matriciel pour lesquelles ils ont été conçus.
Intel étend les plateformes à l'aide d'ASIC spécialement conçus pour offrir un bond en avant des performances des applications Matrix. Il s'agit notamment des processeurs Habana AI et des cartes graphiques de calcul haute performance Ponte Vecchio avec la nouvelle technologie XMX (Xe Matrix Extensions). Chaque moteur XMX est construit avec des matrices systoliques profondes, ce qui permet à Ponte Vecchio de disposer de quantités importantes de capacités vectorielles et matricielles dans un seul appareil.
En outre, Intel® Deep Learning Boost (Intel® DL Boost), disponible sur les processeurs Intel® Xeon® Scalable de 3ᵉ génération et Intel® Core™ de 10ᵉ génération, ajoute des extensions architecturales permettant d'accélérer les instructions VNNI (Vector Neural Network Instructions). Afin d'augmenter considérablement les instructions par horloge (IPC) pour les applications d'IA, nous avons introduit une nouvelle technologie appelée Intel® AMX (Advanced Matrix Extensions). Cette technologie sera d'abord disponible dans le cadre de notre architecture Sapphire Rapids de nouvelle génération, qui augmente considérablement les opérations de type matriciel.
Intel® Xe Matrix Extensions (Intel® XMX)
Réseaux systoliques profonds
Intel® Advanced Matrix Extensions (Intel® AMX)
Accélérateur de multiplication matricielle par tuiles
Centré sur l'espace : FPGA reprogrammables
Les FPGA (Field Programmable Gate Arrays) sont des circuits intégrés capables de manipuler physiquement l'ouverture et la fermeture de leurs portes logiques. Les circuits présents à l'intérieur d'une puce FPGA ne sont pas gravés irrévocablement et peuvent être reprogrammés en cas de besoin.
Les FPGA Intel® offrent une accélération matérielle entièrement personnalisable, tout en conservant la flexibilité nécessaire pour évoluer avec des besoins de calcul en évolution rapide. En tant que supports vierges et modifiables, leur fonction et leur puissance peuvent être facilement adaptées à l'infini.
FPGA et SoC Intel® Agilex™
La famille de FPGA Intel® Agilex™ exploite la technologie hétérogène de système en boîtier (SiP) 3D pour intégrer le premier composant FPGA d'Intel gravé en 10 nm.
FPGA Intel® Stratix® 10 NX
Le FPGA Intel® Stratix® 10 NX est un FPGA optimisé pour l'IA et conçu pour les applications d'accélération de l'IA à large bande passante et à faible latence. Le FPGA Intel® Stratix® 10 NX offre une solution de calcul accélérée pour l'IA grâce à des blocs de calcul optimisés pour l'IA offrant un débit INT8 1 jusqu'à 15 fois supérieur à celui du bloc DSP standard du FPGA Intel® Stratix® 10.
Architectures de nouvelle génération
Les équipes de recherche et développement d'Intel spécialisées dans la nouvelle génération de calculs planifient les architectures de demain. Parmi celles-ci figurent les architectures quantiques et neuromorphiques.
Informatique quantique
Nos chercheurs étudient comment utiliser l'informatique quantique pour résoudre des problèmes hors de portée des ordinateurs actuels dans des domaines comme le développement de médicaments, la modélisation financière et le fonctionnement de l'univers. Il s'agit de faire évoluer une technologie connue sous le nom de qubits, ou bit quantique, de spin dans le silicium. Les qubits de spin ressemblant à un transistor à électron unique, nos 50 années d'expertise dans le domaine de la fabrication bénéficient à la recherche en informatique quantique.
Calcul neuromorphique
En s'inspirant du fonctionnement de notre cerveau, les systèmes neuromorphiques résoudront des problèmes à l'aide de données concrètes dans des domaines tels que l'analytique vocale et vidéo avancée, la robotique et les systèmes autonomes qui doivent répondre à des événements externes, en particulier lorsqu'une adaptation inattendue est requise.
Programmation unifiée avec OneAPI
Notre initiative oneAPI est conçue pour définir la programmation d'un monde multiarchitecture. Elle offrira aux développeurs une expérience de programmation unifiée et ouverte sur l'architecture de leur choix, éliminant ainsi la complexité des bases de code, des langages de programmation, des outils et des flux de travail distincts.
Avis et avertissements 2 3 4
Infos sur le produit et ses performances
Basé sur des estimations internes d'Intel.
Tous les plans et les calendriers des sorties sont susceptibles d'être modifiés sans préavis. Les déclarations figurant sur cette page web qui font référence à des plans ou des attentes futurs sont des déclarations prévisionnelles. Ces déclarations, fondées sur les attentes actuelles, impliquent de nombreux risques et incertitudes qui pourraient sensiblement modifier les résultats réels de ceux exprimés ou sous-entendus dans de telles déclarations. Pour en savoir plus sur les facteurs qui pourraient faire différer les résultats réels de façon substantielle, consultez nos derniers résultats financiers et les dossiers de la SEC à l'adresse www.intc.com.
Les noms de code sont utilisés par Intel pour identifier des produits, technologies ou services en cours de développement qui ne sont pas encore disponibles au public. Il ne s'agit pas de noms « commerciaux » et ils ne sont pas destinés à être utilisés comme marques de commerce.
Toutes les informations susmentionnées sont modifiables à tout moment sans préavis.