Générez des données exploitables, comptez sur la sécurité assistée par matériel et mettez en place des prestations de services dynamiques avec les processeurs Intel® Xeon® Scalable. Bénéficiez de la prise en charge de votre infrastructure Cloud hybride et des applications les plus exigeantes, notamment en matière d'analyse dans la mémoire, d'intelligence artificielle, de conduite autonome, de calcul intensif (HPC) et de transformation des réseaux.

Découvrir les avantages de la plate-forme ›

Processeurs Intel® Xeon® Platinum

  • Charges de travail exigeantes et stratégiques d'intelligence artificielle, d'analyse et de Cloud hybride
  • Performances optimales
  • Configuration évolutive avec 2, 4 ou plus de 8 sockets

Processeurs Intel® Xeon® Gold

  • Performances optimisées pour les charges de travail avec une fiabilité accrue
  • Vitesse de mémoire la plus élevée, capacité de mémoire maximale et interconnectivité
  • Évolutivité améliorée avec une configuration basée sur 2 à 4 sockets

Processeurs Intel® Xeon® Silver

  • Performances et rendement électrique de base
  • Vitesse de mémoire accrue
  • Performances moyennes en termes de calcul, de réseau et de stockage

Processeurs Intel® Xeon® Bronze

  • Des performances optimales à un coût abordable pour les PME-PMI et les solutions de stockage d'entrée de gamme
  • Sécurité matérielle renforcée
  • Système évolutif fiable avec configuration 2 sockets

Profitez davantage de votre investissement dans le Cloud

Atteignez le considérable rendement par dollar dont vous avez besoin avec la technologie Intel®. Les charges de travail critiques et gourmandes en données, telles que les bases de données, le calcul intensif (HPC) et le Web, deviennent plus efficaces pour un moindre coût total de possession avec les Clouds basés sur l'architecture Intel®.1 2 3 4 5

Performances 2,84 fois plus élevées

Un rapport performances/prix jusqu'à 2,84 fois plus élevé pour les charges de travail de bases de données, y compris HammerDB PostgreSQL* et MongoDB*.1

En savoir plus

Performances 4,15 fois plus élevées

Un rapport performances/prix jusqu'à 4,15 fois plus élevé sur High Performance LINPACK* et LAMMPS*.2

En savoir plus

Performances 1,74 fois plus élevées

Un rapport performances/prix plus élevé sur Java côté serveur et un rapport performances/prix 1,74 fois plus élevé sur Wordpress PHP/HHVM.3

En savoir plus

Performances 2,25 fois plus élevées

Un rapport performances/prix jusqu'à 2,25 fois plus élevé pour les applications de bande passante mémoire.4

En savoir plus

Portefeuille de produits pour les centres de données Intel

Transférer les données plus vite

Déplacez les données plus rapidement avec la technologie Intel® Ethernet

Déplacez les données plus rapidement et accélérez la fourniture de nouveaux services ainsi que de nouvelles fonctions avec la technologie Intel® Ethernet.

En savoir plus sur la technologie Intel® Ethernet ›

Stocker plus de données

Une innovation unique

Optimisez, stockez et déplacez des ensembles de données plus complexes et plus volumineux avec la technologie Intel® Optane™ DC. Disponible dans une large gamme de produits et solutions, cette véritable innovation comble les lacunes essentielles du stockage et de la hiérarchie de mémoire grâce à la mémoire persistante, aux grands pools de mémoire, à la mise en mémoire cache et au stockage rapide.

Mémoire persistante Intel® Optane™ DC ›

Unités de stockage SSD Intel® Optane™ DC ›

Tout traiter

Une performance qui stimule les informations

Les plates-formes optimisées pour les charges de travail d'Intel avec accélération de l'IA, qui sont leaders sur le marché, offrent une base de performance sans faille pour accélérer le pouvoir de transformation des données, des différents Clouds vers la périphérie intelligente du réseau et vice-versa.

Processeurs Intel® Xeon® ›

FPGA Intel® ›

Plate-forme Intel® Xeon® Scalable : la base pour l'innovation orientée données

Des plates-formes innovantes pour la transformation numérique.

Une performance qui stimule les informations

La 2e génération de processeurs Intel® Xeon® Scalable offre des performances optimisées pour les charges de travail avec accélération de l'IA leaders sur le marché, qui fournissent une base de performance sans faille pour accélérer le pouvoir de transformation des données, des différents Clouds vers la périphérie intelligente du réseau et vice-versa.

Voir les bancs d'essai de plate-forme

Résilience des entreprises avec la sécurité renforcée par matériel

Protection des données améliorée par la conception. La sécurité renforcée par matériel d'Intel protège des attaques malveillantes tout en maintenant l'intégrité de la charge de travail et les niveaux de performance. L'efficacité du chiffrement permet une fourniture de données fiable au repos, en cours d'utilisation ou en mouvement.

Bibliothèques de sécurité Intel® pour les centres de données (Intel® SecL - DC)

Construire une infrastructure fiable

Prestation de service agile

Des innovations en matière de plate-forme et une virtualisation renforcée par matériel pour les calculs, le réseau et le stockage, avec la prise en charge d'une nouvelle classe de mémoire innovante qui alimente un système multi-cloud rentable, flexible et évolutif, permettent de fournir en permanence une expérience entre entreprises ou d'entreprise à particulier de grande qualité.

Technologies de gestion de l'infrastructure Intel®

Transformer les charges de travail essentielles axées sur les données

Découvrez comment la 2e génération de processeurs Intel® Xeon® Scalable et le portefeuille de produits pour centre de données d'Intel leader sur le marché peuvent vous aider à moderniser votre infrastructure et accélérer le transfert des informations pour l'IA, l'analyse, le Cloud et le calcul intensif (HPC).

En savoir plus

Accélérez le retour sur investissement avec les solutions Intel® Select

Simplifiez le déploiement de votre centre de données grâce à des solutions rigoureusement testées et vérifiées, mais également optimisées pour les performances du monde réel. Ces solutions permettent d'accélérer le déploiement d'une infrastructure avec processeurs Intel® Xeon® pour les charges de travail stratégiques d'aujourd'hui.

En savoir plus

En savoir plus sur la plate-forme Intel centrée sur les données

Regardez la vidéo pour découvrir comment le portefeuille de produits Intel centrés sur les données débloque des avantages du cœur du centre de données vers la périphérie du réseau et inversement.

Infos sur le produit et ses performances

1

Résultats calculés par Intel P2CA à l'aide de tarifs AWS ($/heure, durée standard de 1 an, aucun investissement initial) en date du 12 janvier 2019.
Tests de performances/prix réalisés sur des instances AWS* EC2 R5 et R5a (https://aws.amazon.com/ec2/instance-types/), comparant les performances/prix d'un processeur Intel® Xeon® Scalable 96 vCPU aux performances/prix d'un processeur AMD EPYC*.

Charge de travail : HammerDB* PostgreSQL*
Résultats : performances/prix AMD EPYC = ligne de référence de 1 ; performances/prix du processeur Intel® Xeon® Scalable = 1,85X (le score le plus élevé étant le meilleur)
Base de données : HammerDB - PostgreSQL (le score le plus élevé étant le meilleur) :
Instance (Intel) AWS R5.24xlarge, HammerDB 3.0 PostgreSQL 10.2, mémoire : 768 Go, hyperviseur : KVM ; type de stockage : EBS io1, volume de disque 200 Go, 200 Go de stockage total, version Docker : 18.06.1-ce, RedHat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6 400 Mo de mémoire tampon partagée, 256 entrepôts, 96 utilisateurs. Score « NOPM » 439 931, mesure réalisée par Intel les 11/12/18 et 14/12/18.
Instance (AMD) AWS R5a.24xlarge, HammerDB 3.0 PostgreSQL 10.2, mémoire : 768 Go, hyperviseur : KVM ; type de stockage : EBS io1, volume de disque 200 Go, 200 Go de stockage total, version Docker : 18.06.1-ce, RedHat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6 400 Mo de mémoire tampon partagée, 256 entrepôts, 96 utilisateurs. Score « NOPM » 212 903, mesure réalisée par Intel le 20/12/2018.

Charge de travail : MongoDB*
Résultats : performances/prix AMD EPYC = ligne de référence de 1 ; performances/prix du processeur Intel® Xeon® Scalable = 2,84X (le score le plus élevé étant le meilleur)
Base de données : MongoDB (le score le plus élevé étant le meilleur) :
Instance (Intel) AWS R5.24xlarge, MongoDB v4.0, journal désactivé, synchronisation avec système de fichiers désactivée, cache WiredTiger = 27 Go, maxPoolSize = 256 ; 7 instances MongoDB, 14 machines virtuelles client, 1 client YCSB par machine virtuelle, 96 threads par client YCSB, RedHat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, score 1 229 288 ops/sec, mesure réalisée par Intel le 10/12/18.
Instance (AMD) AWS R5a.24xlarge, MongoDB v4.0, journal désactivé, synchronisation avec système de fichiers désactivée, cache WiredTiger = 27 Go, maxPoolSize = 256 ; 7 instances MongoDB, 14 machines virtuelles client, 1 client YCSB par machine virtuelle, 96 threads par client YCSB, RedHat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, score 388 596 ops/sec, mesure réalisée par Intel le 10/12/18.
Pour en savoir plus, consultez www.intel.fr/benchmarks.

2

Résultats calculés par Intel P2CA à l'aide de tarifs AWS ($/heure, durée standard de 1 an, aucun investissement initial) en date du 12 janvier 2019.
Tests de performances/prix réalisés sur des instances AWS* EC2 M5 et M5a (https://aws.amazon.com/ec2/instance-types/), comparant les performances/prix d'un processeur Intel® Xeon® Scalable 96 vCPU aux performances/prix d'un processeur AMD EPYC*.

Charge de travail : LAMMPS*
Résultats : performances/prix AMD EPYC = ligne de référence de 1 ; performances/prix du processeur Intel® Xeon® Scalable = 4,15X (le score le plus élevé étant le meilleur)
Science des matériaux HPC : LAMMPS (le score le plus élevé étant le meilleur) :
Instance (Intel) AWS M5.24xlarge, version LAMMPS : 22/08/2018 (Code : https://lammps.sandia.gov/download.html), charge de travail : eau - 512 000 particules, Intel ICC 18.0.3.20180410, bibliothèque MPI Intel® pour système d'exploitation Linux*, version 2018 mise à jour 3 Build 20180411, 48 rangs MPI, RedHat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, score 137,5 pas de temps/sec, mesure réalisée par Intel le 31/10/18.
Instance (AMD) AWS M5a.24xlarge, version LAMMPS : 22/08/2018 (Code : https://lammps.sandia.gov/download.html), charge de travail : eau - 512 000 particules, Intel ICC 18.0.3.20180410, bibliothèque MPI Intel® pour système d'exploitation Linux*, version 2018 mise à jour 3 Build 20180411, 48 rangs MPI, RedHat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, score 55,8 pas de temps/sec, mesure réalisée par Intel le 07/11/2018.
Modifications AMD pour prendre en charge AVX2 (AMD ne prenant en charge qu'AVX2, ces modifications étaient nécessaires) :
sed -i 's/-xHost/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
sed -i 's/-qopt-zmm-usage=high/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi

Charge de travail : High Performance Linpack*
Résultats : performances/prix AMD EPYC = ligne de référence de 1 ; performances/prix du processeur Intel® Xeon® Scalable = 4,15X (le score le plus élevé étant le meilleur)
Linpack HPC (le score le plus élevé étant le meilleur) :
Instance (Intel) AWS M5.24xlarge, version HP Linpack 2.2 (https://software.intel.fr/en-us/articles/intel-mkl-benchmarks-suite Répertoire : benchmarks_2018.3.222/linux/mkl/benchmarks/mp_linpack/bin_intel/intel64), Intel ICC 18.0.3.20180410 avec AVX512, bibliothèque MPI Intel® pour système d'exploitation Linux*, version 2018 mise à jour 3 Build 20180411, RedHat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=24, 2 processus MPI, score 3 152 Gbit/s, mesure réalisée par Intel le 31/10/18.
Instance (AMD) AWS M5a.24xlarge, version HP Linpack 2.2, (source HPL : http://www.netlib.org/benchmark/hpl/hpl-2.2.tar.gz ; version 2.2 ; icc (ICC) 18.0.2 20180210 ; compilait et établissait un lien vers la bibliothèque BLIS version 0.4.0 ; https://github.com/flame/blis ; drapeaux Addt'l Compiler : -O3 -funroll-loops -W -Wall –qopenmp ; make arch=zen OMP_NUM_THREADS=8 ; 6 processus MPI). Intel ICC 18.0.3.20180410 avec AVX2, bibliothèque MPI Intel® pour le système d'exploitation Linux*, version 2018 mise à jour 3 Build 20180411, RedHat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=8, 6 processus MPI, score 677,7 Gbit/s, mesure réalisée par Intel le 07/11/18.

3

Résultats calculés par Intel P2CA à l'aide de tarifs AWS ($/heure, durée standard de 1 an, aucun investissement initial) en date du 12 janvier 2019.
Tests de performances/prix réalisés sur des instances AWS* EC2 M5 et M5a (https://aws.amazon.com/ec2/instance-types/), comparant les performances/prix d'un processeur Intel® Xeon® Scalable 96 vCPU aux performances/prix d'un processeur AMD EPYC*.

Charge de travail : Java côté serveur* 1 JVM
Résultats : performances/prix AMD EPYC = ligne de référence de 1 ; performances/prix du processeur Intel® Xeon® Scalable = 1,74X (le score le plus élevé étant le meilleur)
Java côté serveur (le score le plus élevé étant le meilleur) :
Instance (Intel) AWS M5.24xlarge, banc d'essai serveur Java sans liaison NUMA, 2JVM, OpenJDK 10.0.1, RedHat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, score 101 767 transactions/sec, mesure réalisée par Intel le 16/11/18.
Instance (AMD) AWS M5a.24xlarge, banc d'essai serveur Java sans liaison NUMA, 2JVM, OpenJDK 10.0.1, RedHat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, score 52 068 transactions/sec, mesure réalisée par Intel le 16/11/18.

Charge de travail : Wordpress* PHP/HHVM*
Résultats : performances/prix AMD EPYC = ligne de référence de 1 ; performances/prix du processeur Intel® Xeon® Scalable = 1,75X (le score le plus élevé étant le meilleur)
Wordpress Web front-end (le score le plus élevé étant le meilleur) :
Instance (Intel) AWS M5.24xlarge, oss-performance/wordpress Ver 4.2.0 ; Ver 10.2.19-MariaDB-1:10.2.19+maria~bionic ; version charge de travail : u'4.2.0 ; threads client : 200 ; PHP 7.2.12-1 ; perfkitbenchmarker_version="v1.12.0-944-g82392cc ; Ubuntu 18.04, noyau Linux 4.15.0-1025-aws, score 3 626,11 TPS, mesure réalisée par Intel le 16/11/18.
Instance (AMD) AWS M5a.24xlarge, oss-performance/wordpress Ver 4.2.0 ; Ver 10.2.19-MariaDB-1:10.2.19+maria~bionic ; version charge de travail : u'4.2.0 ; threads client : 200 ; PHP 7.2.12-1 ; perfkitbenchmarker_version="v1.12.0-944-g82392cc ; Ubuntu 18.04, noyau Linux 4.15.0-1025-aws, score 1 838,48 TPS, mesure réalisée par Intel le 16/11/18.
Pour en savoir plus, consultez www.intel.fr/benchmarks.

4

Instance (Intel) AWS M5.4xlarge, Flux McCalpin (version OMP), (Source :https://www.cs.virginia.edu/stream/FTP/Code/stream.c) ; Intel ICC 18.0.3.20180410 avec AVX512, -qopt-zmm-usage=high, -DSTREAM_ARRAY_SIZE=134217728 -DNTIMES=100 -DOFFSET=0 –qopenmp, -qoptstreaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY: proclist=[0-7:1], granularity=thread, explicit, score 81216.7 Mo/s, mesure réalisée par Intel le 06/12/18.
Instance (AMS) AWS M5a.4xlarge, Flux McCalpin (version OMP), (Source :https://www.cs.virginia.edu/stream/FTP/Code/stream.c) ; Intel ICC 18.0.3.20180410 avec AVX2,-DSTREAM_ARRAY_SIZE=134217728, -DNTIMES=100 -DOFFSET=0 -qopenmp -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY : proclist=[0-7:1], granularity=thread,explicit, score 32154.4 Mo/s, mesure réalisée par Intel le 06/12/18.
Avertissement OpenFOAM : cette offre n'est pas approuvée ni avalisée par OpenCFD Limited, producteur et distributeur du logiciel OpenFOAM via www.openfoam.com, et propriétaire des marques commerciales OpenFOOAM* et OpenCFD*.
Tarifs AWS en date du 12 janvier 2019 : tarification des instances réservées pour une durée standard de 1 an (https://aws.amazon.com/ec2/pricing/reserved-instances/pricing/) Tarifs à la demande par heure Linux/Unix (https://aws.amazon.com/ec2/pricing/on-demand/).

5

Amélioration multipliée par 30 du débit d'inférence sur le processeur Intel® Xeon® Platinum 9282 avec la technologie Intel® Deep Learning Boost (Intel® DL Boost) : test réalisé par Intel le 26 février 2019. Plate-forme : processeur Intel® Xeon® Platinum 9282 2 sockets Dragon rock (56 cœurs par socket), technologie Hyper Threading ACTIVÉE, technologie Turbo ACTIVÉE, 768 Go de mémoire totale (24 emplacements / 32 Go / 2 933 MHz), BIOS : SE5C620.86B.0D.01.0241.112020180249, noyau CentOS 7 3.10.0-957.5.1.el7.x86_64, structure de Deep Learning : optimisation Intel® pour version Caffe* : https://github.com/intel/caffe d554cbf1, ICC 2019.2.187, MKL DNN version : v0.17 (hachage de validation : 830a10059a018cd2634d94195140cf2d8790a75a), modèle : https://github.com/intel/caffe/blob/master/models/intel_optimized_models/int8/resnet50_int8_full_conv.prototxt, BS=64, Aucune couche de données syntheticData : 3x224x224, 56 instances/2 sockets, type de données : INT8 ; vs. Testé par Intel en date du 11 juillet 2017 : processeur Intel® Xeon® Platinum 8180 2 sockets à 2,50 GHz (28 cœurs), technologie Hyper Threading désactivée, technologie turbo désactivée, mode d'échelonnage réglé sur « performances » via le pilote intel_pstate, RAM ECC DDR4-2666 384 Go. CentOS Linux* version 7.3.1611 (Core), noyau Linux* 3.10.0-514.10.2.el7.x86_64. Unité de stockage SSD Intel® série S3700 pour les centres de données (800 Go, 2,5 pouces, SATA 6 Gbit/s, 25 nm, MLC). Performances mesurées avec : variables environnementales : KMP_AFFINITY='granularity=fine, compact‘, OMP_NUM_THREADS=56, fréquence du processeur réglée avec les performances CPU Power frequency-set-d 2,5G -u 3,8G -g. Caffe : (http://github.com/intel/caffe/), révision f96b759f71b2281835f690af267158b82b150b5c. Inférence mesurée avec la commande « caffe time --forward_only », formation mesurée avec la commande « caffe time ». Un ensemble de données synthétique a été utilisé pour les topologies « ConvNet ». Pour les autres topologies, les données ont été stockées localement et mises en mémoire avant la formation. Spécifications des topologies sur https://github.com/intel/caffe/tree/master/models/intel_optimized_models(ResNet-50). Compilateur C++ Intel® ver. 17.0.2 20170213, Intel® Math Kernel Library (Intel® MKL) small libraries version 2018.0.20170425. Caffe exécuté avec « numactl -l ».