Bénéficiez de performances plus rentables sur AWS, avec vos données sur le matériel Intel

Découvrez l'avantage de choisir des instances basées sur les processeurs Intel® Xeon® Scalable.

Points essentiels à retenir

  • Les instances AWS* basées sur les processeurs Intel® augmentent la rentabilité des performances des principales charges de travail

  • Par exemple, les instances basées sur le processeur Intel® Xeon® Scalable sont 4,15 fois plus rentables pour les charges de travail du calcul intensif (HPC) que les instances basées sur le processeur AMD EPYC*1

  • Les bases de données, les charges de travail nécessitant beaucoup de mémoire et les charges de travail basées sur le Web créent également davantage de valeur ajoutée avec Intel

BUILT IN - ARTICLE INTRO SECOND COMPONENT

Exploitez-vous au mieux votre investissement dans AWS* ?

Le Cloud vous apporte l'évolutivité, la fiabilité et la flexibilité dont vous avez besoin, mais tous les Clouds ne se valent pas : certaines instances créent beaucoup plus de valeur que d'autres. Pour savoir quel est le choix optimal pour vos charges de travail, vous devez examiner la façon dont ces charges de travail spécifiques fonctionnent. Il se peut que des statistiques de performance génériques ne vous renseignent pas beaucoup sur les résultats que vous obtenez, surtout si vous exécutez des charges de travail qui exigent beaucoup de calculs ou de données. De même, le fait de connaître le prix par instance ne vous renseigne pas beaucoup sur le prix par transaction ni sur aucune autre mesure réelle de l'activité ou des performances. Vous devez examiner plus en détail.

Par exemple, saviez-vous que les instances AWS* basées sur les processeurs Intel® Xeon® Scalable peuvent offrir des performances jusqu'à 4,15 fois plus rentables pour les charges de calcul intensif1 que les instances basées sur les processeurs AMD EPYC*, selon le banc d'essai High-performance Linpack* ? Elles offrent également des performances jusqu'à 2,19 fois plus rentables selon le banc d'essai LAMMPS*1. Pour les charges de travail des bases de données sur AWS, les processeurs Intel® Xeon® Scalable peuvent offrir des performances jusqu'à 2,84 fois plus rentables2 ; et pour les charges de travail nécessitant beaucoup de bande passante mémoire, elles offrent des performances jusqu'à 2,25 fois plus rentables3. Si vous exécutez des charges de travail basées sur le Web telles que Java* côté serveur ou Wordpress PHP/HHVM*, vous constaterez peut-être qu'elles offrent des performances jusqu'à 1,74 fois plus rentables avec Intel4.

Si vous êtes déjà équipé de processeurs Intel®, vous pouvez également faire des économies en migrant vers une instance plus moderne, basée aussi sur le processeur Intel® Xeon® Scalable. TSO Logic fournit des recommandations orientées données pour calculer la taille et le coût appropriés d'un système dans le Cloud public et privé. Des millions de points de données ont été analysés dans son dépôt de 100 000 données clients AWS anonymes. Conclusion : 19 % des instances actuelles peuvent réaliser des économies en optant pour des types d'instance Amazon EC2* plus récents et de plus petite taille, qui offrent des performances équivalentes, à moindre coût. Par exemple, la migration d'anciennes instances C4.8XLarge vers de nouvelles instances C5.4XLarge peut vous faire économiser jusqu'à 50 % de vos coûts de Cloud, soit 3 000 $ par instance5. De plus, les économies peuvent rapidement s'accumuler si vous achetez des licences logicielles par cœur. TSO Logic a constaté qu'une charge de travail peut fonctionner avec 40 cœurs en moins sur des instances plus récentes basées sur le processeur Intel® Xeon® Scalable de 2e génération5. Si vous utilisez une base de données commerciale sous licence à 1 800 $ par cœur, vous pouvez économiser 72 000 $ par année en réduisant de 40 % le nombre de cœurs5.

Les processeurs Intel® Xeon® Scalable et les processeurs Intel® Xeon® Scalable de 2e génération présentent un certain nombre d'optimisations pour accélérer vos charges de travail. Le format de numéro INT8 permet d'éliminer les détails inutiles pour accélérer l'apprentissage automatique. Par ailleurs, la technologie Intel® Deep Learning Boost (Intel® DL Boost) fournit une nouvelle instruction de processeur pour accélérer l'inférence dans des applications telles que la classification d'images, la reconnaissance vocale, la traduction et la détection d'objets. Intel® Advanced Vector Extensions 512 (Intel® AVX-512) fournit des instructions vectorielles 512 bits pour accélérer les calculs en virgule flottante, notamment les simulations scientifiques. La technologie Intel® Turbo Boost vous permet de faire fonctionner les cœurs plus rapidement que la fréquence de fonctionnement de base, et ce, afin de vous offrir des performances supplémentaires lorsque vous en avez le plus besoin. Pour vous aider à protéger vos données, Intel® Advanced Encryption Standard New Instructions (Intel® AES-NI) fournit des instructions de processeur afin d'accélérer le chiffrement et le déchiffrement.

Avertissements et informations importantes :

Les logiciels et charges de travail employés dans les tests de performance peuvent avoir été optimisés pour les microprocesseurs Intel®. Les tests de performance tels que SYSmark* et MobileMark* portent sur des configurations, des composants, des logiciels, des opérations et des fonctions spécifiques. Les résultats peuvent varier en fonction de ces facteurs. Pour l'évaluation d'un produit, il convient de consulter d'autres tests et d'autres sources d'information, notamment pour connaître le comportement de ce produit avec d'autres composants. Pour plus d'informations, voir www.intel.com/benchmarks.

Les résultats de performances s'appuient sur les tests réalisés aux dates indiquées dans les configurations et peuvent ne pas refléter toutes les mises à jour de sécurité disponibles. Pour obtenir plus de détails, veuillez lire les informations de configuration. Aucun produit ou composant ne saurait être totalement sécurisé en toutes circonstances.
Intel ne maîtrise et ne vérifie pas les données tierces. Nous vous recommandons de vérifier ce contenu, de consulter d'autres sources et de vous assurer que les données référencées sont exactes.

Les scénarios de réduction de coûts décrits sont fournis à titre d'exemples montrant comment un produit basé sur Intel® donné, dans les circonstances et configurations spécifiées, peut affecter les coûts futurs et entraîner des économies de coûts. Les circonstances peuvent varier selon les cas. Intel ne garantit aucun coût ni réduction de coûts.

Les fonctionnalités et avantages des technologies Intel® dépendent de la configuration du système et peuvent nécessiter du matériel et des logiciels compatibles, ou l'activation de services. Les performances varient d'une configuration à une autre. Pour plus de détails, contactez le fabricant ou le vendeur de votre ordinateur ou rendez-vous sur intel.fr.

Intel, le logo Intel et Xeon sont des marques commerciales d'Intel Corporation ou de ses filiales aux États-Unis et/ou dans d'autres pays.

*Les autres noms et marques peuvent être revendiqués comme la propriété de tiers. 
© Intel Corporation

Infos sur le produit et ses performances

1

Résultats calculés par Intel à l'aide de tarifs AWS ($/heure, durée standard de 1 an, aucun investissement initial) en date du 12 janvier 2019.
Tests de performances/prix réalisés sur des instances AWS* EC2 M5 et M5a (https://aws.amazon.com/ec2/instance-types/), comparant les performances/prix d'un processeur Intel® Xeon® Scalable 96 vCPU aux performances/prix d'un processeur AMD EPYC*.

Charge de travail : LAMMPS*
Résultats : performances/prix AMD EPYC = ligne de référence de 1 ; performances/prix du processeur Intel® Xeon® Scalable = 2,19 X (le score le plus élevé étant le meilleur).
Science des matériaux HPC : LAMMPS (le score le plus élevé étant le meilleur) :
Instance (Intel) AWS M5.24xlarge, version LAMMPS : 22/08/2018 (Code : https://lammps.sandia.gov/download.html), charge de travail : eau - 512 000 particules, Intel ICC 18.0.3.20180410, bibliothèque MPI Intel® pour système d'exploitation Linux*, version 2018 mise à jour 3 Build 20180411, 48 rangs MPI, Red Hat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, score 137,5 pas de temps/s, mesure réalisée par Intel le 31/10/18.
Instance (AMD) AWS M5a.24xlarge, version LAMMPS : 22/08/2018 (Code : https://lammps.sandia.gov/download.html), charge de travail : eau - 512 000 particules, Intel ICC 18.0.3.20180410, bibliothèque MPI Intel® pour système d'exploitation Linux*, version 2018 mise à jour 3 Build 20180411, 48 rangs MPI, Red Hat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, score 55,8 pas de temps/s, mesure réalisée par Intel le 07/11/2018.
Modifications AMD pour prendre en charge AVX2 (AMD ne prenant en charge qu'AVX2, ces modifications étaient nécessaires) :
sed -i 's/-xHost/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
sed -i 's/-qopt-zmm-usage=high/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi

Charge de travail : High Performance Linpack*
Résultats : performances/prix AMD EPYC = ligne de référence de 1 ; performances/prix du processeur Intel® Xeon® Scalable = 4,15 X (le score le plus élevé étant le meilleur).
Linpack HPC (le score le plus élevé étant le meilleur) :
Instance (Intel) AWS M5.24xlarge, version HP Linpack 2.2 (https://software.intel.fr/en-us/articles/intel-mkl-benchmarks-suite Répertoire : benchmarks_2018.3.222/linux/mkl/benchmarks/mp_linpack/bin_intel/intel64), Intel ICC 18.0.3.20180410 avec AVX512, bibliothèque MPI Intel® pour système d'exploitation Linux*, version 2018 mise à jour 3 Build 20180411, Red Hat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=24, 2 processus MPI, score 3 152 Gbit/s, mesure réalisée par Intel le 31/10/18.
Instance (AMD) AWS M5a.24xlarge, version HP Linpack 2.2, (source HPL : http://www.netlib.org/benchmark/hpl/hpl-2.2.tar.gz ; version 2.2 ; icc (ICC) 18.0.2 20180210 ; compilait et établissait un lien vers la bibliothèque BLIS version 0.4.0 ; https://github.com/flame/blis ; drapeaux Addt'l Compiler : -O3 -funroll-loops -W -Wall –qopenmp ; make arch=zen OMP_NUM_THREADS=8 ; 6 processus MPI). Intel ICC 18.0.3.20180410 avec AVX2, bibliothèque MPI Intel® pour le système d'exploitation Linux*, version 2018 mise à jour 3 Build 20180411, Red Hat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=8, 6 processus MPI, score 677,7 Gbit/s, mesure réalisée par Intel le 07/11/18.

2

Résultats calculés par Intel à l'aide de tarifs AWS ($/heure, durée standard de 1 an, aucun investissement initial) en date du 12 janvier 2019.
Tests de performances/prix réalisés sur des instances AWS* EC2 R5 et R5a (https://aws.amazon.com/ec2/instance-types/), comparant les performances/prix d'un processeur Intel® Xeon® Scalable 96 vCPU aux performances/prix d'un processeur AMD EPYC*.

Charge de travail : HammerDB* PostgreSQL*
Résultats : performances/prix AMD EPYC = ligne de référence de 1 ; performances/prix du processeur Intel® Xeon® Scalable = 1,85 X (le score le plus élevé étant le meilleur).
Base de données : HammerDB - PostgreSQL (le score le plus élevé étant le meilleur) :
Instance (Intel) AWS R5.24xlarge, HammerDB 3.0 PostgreSQL 10.2, mémoire : 768 Go, hyperviseur : KVM ; type de stockage : EBS io1, volume de disque 200 Go, 200 Go de stockage total, version Docker : 18.06.1-ce, Red Hat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6 400 Mo de mémoire tampon partagée, 256 entrepôts, 96 utilisateurs. Score « NOPM » 439 931, mesure réalisée par Intel les 11/12/18 et 14/12/18.
Instance (AMD) AWS R5a.24xlarge, HammerDB 3.0 PostgreSQL 10.2, mémoire : 768 Go, hyperviseur : KVM ; type de stockage : EBS io1, volume de disque 200 Go, 200 Go de stockage total, version Docker : 18.06.1-ce, Red Hat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6 400 Mo de mémoire tampon partagée, 256 entrepôts, 96 utilisateurs. Score « NOPM » 212 903, mesure réalisée par Intel le 20/12/2018.

Charge de travail : MongoDB*
Résultats : performances/prix AMD EPYC = ligne de référence de 1 ; performances/prix du processeur Intel® Xeon® Scalable = 2,84 X (le score le plus élevé étant le meilleur).
Base de données : MongoDB (le score le plus élevé étant le meilleur) :
Instance (Intel) AWS R5.24xlarge, MongoDB v4.0, journal désactivé, synchronisation avec système de fichiers désactivée, cache WiredTiger = 27 Go, maxPoolSize = 256 ; 7 instances MongoDB, 14 machines virtuelles client, 1 client YCSB par machine virtuelle, 96 threads par client YCSB, Red Hat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, score 1 229 288 OPS, mesure réalisée par Intel le 10/12/18.
Instance (AMD) AWS R5a.24xlarge, MongoDB v4.0, journal désactivé, synchronisation avec système de fichiers désactivée, cache WiredTiger = 27 Go, maxPoolSize = 256 ; 7 instances MongoDB, 14 machines virtuelles client, 1 client YCSB par machine virtuelle, 96 threads par client YCSB, Red Hat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, score 388 596 OPS, mesure réalisée par Intel le 10/12/18.
Pour en savoir plus, consultez www.intel.fr/benchmarks.

3

Instance (Intel) AWS M5.4xlarge, diffusion McCalpin (version OMP), (source :https://www.cs.virginia.edu/stream/FTP/Code/stream.c) ; Intel ICC 18.0.3 20180410 avec AVX512, -qopt-zmm-usage=high, -DSTREAM_ARRAY_SIZE=134217728 -DNTIMES=100 -DOFFSET=0 –qopenmp, -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux* 7.5, noyau 3.10.0-862.el7.x86_64, OMP_NUM_THREADS : 8, KMP_AFFINITY: proclist=[0-7:1], granularité=thread, explicite, score 81 216,7 Mbit/s, mesure réalisée par Intel le 6/12/18.
Instance (AMD) AWS M5a.4xlarge, diffusion McCalpin (version OMP), (source :https://www.cs.virginia.edu/stream/FTP/Code/stream.c) ; Intel ICC 18.0.3 20180410 avec AVX2, -DSTREAM_ARRAY_SIZE=134217728, -DNTIMES=100 -DOFFSET=0 -qopenmp -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux* 7.5, noyau 3.10.0-862.el7.x86_64, OMP_NUM_THREADS : 8, KMP_AFFINITY: proclist=[0-7:1], granularité=thread, explicite, score 32 154,4 Mbit/s, mesure réalisée par Intel le 6/12/18.
Avertissement OpenFOAM : cette offre n'est pas approuvée ni avalisée par OpenCFD Limited, producteur et distributeur du logiciel OpenFOAM via www.openfoam.com, et propriétaire des marques commerciales OPENFOAM® et OpenCFD®.

4

Résultats calculés par Intel à l'aide de tarifs AWS ($/heure, durée standard de 1 an, aucun investissement initial) en date du 12 janvier 2019.
Tests de performances/prix réalisés sur des instances AWS* EC2 M5 et M5a (https://aws.amazon.com/ec2/instance-types/), comparant les performances/prix d'un processeur Intel® Xeon® Scalable 96 vCPU aux performances/prix d'un processeur AMD EPYC*.

Charge de travail : Java côté serveur* 1 JVM
Résultats : performances/prix AMD EPYC = ligne de référence de 1 ; performances/prix du processeur Intel® Xeon® Scalable = 1,74 X (le score le plus élevé étant le meilleur).
Java côté serveur (le score le plus élevé étant le meilleur) :
Instance (Intel) AWS M5.24xlarge, banc d'essai serveur Java sans liaison NUMA, 2JVM, OpenJDK 10.0.1, Red Hat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, score 101 767 transactions/s, mesure réalisée par Intel le 16/11/18.
Instance (AMD) AWS M5a.24xlarge, banc d'essai serveur Java sans liaison NUMA, 2JVM, OpenJDK 10.0.1, Red Hat* Enterprise Linux 7.5, noyau 3.10.0-862.el7.x86_64, score 52 068 transactions/s, mesure réalisée par Intel le 16/11/18.

Charge de travail : WordPress* PHP/HHVM*
Résultats : performances/prix AMD EPYC = ligne de référence de 1 ; performances/prix du processeur Intel® Xeon® Scalable = 1,75 X (le score le plus élevé étant le meilleur).
WordPress Web front-end (le score le plus élevé étant le meilleur) :
Instance (Intel) AWS M5.24xlarge, oss-performance/wordpress Ver 4.2.0 ; Ver 10.2.19-MariaDB-1:10.2.19+maria~bionic ; version charge de travail : u'4.2.0 ; threads client : 200 ; PHP 7.2.12-1 ; perfkitbenchmarker_version="v1.12.0-944-g82392cc ; Ubuntu 18.04, noyau Linux 4.15.0-1025-aws, score 3 626,11 TPS, mesure réalisée par Intel le 16/11/18.
Instance (AMD) AWS M5a.24xlarge, oss-performance/wordpress Ver 4.2.0 ; Ver 10.2.19-MariaDB-1:10.2.19+maria~bionic ; version charge de travail : u'4.2.0 ; threads client : 200 ; PHP 7.2.12-1 ; perfkitbenchmarker_version="v1.12.0-944-g82392cc ; Ubuntu 18.04, noyau Linux 4.15.0-1025-aws, score 1 838,48 TPS, mesure réalisée par Intel le 16/11/18.
Pour en savoir plus, consultez www.intel.fr/benchmarks.

5

Source : rapport de recherche TSO Logic / Intel, « De nouveaux progrès par Intel, Amazon Web Services, de grandes économies pour le Cloud ».