Quelle que soit la taille des instances, les instances M6i ont effectué plus d'opérations d'inférence par seconde que les instances M6a équipées de processeurs AMD EPYC de 3ᵉ génération
Si vous gérez un site de commerce électronique, vous pourriez être intéressé par l'amélioration des ventes grâce à une charge de travail de deep learning telle qu'un moteur de recommandation Wide & Deep. Ces applications analysent les données collectées lorsque les visiteurs font des achats sur votre site, et génèrent des recommandations de produits supplémentaires qui pourraient intéresser vos clients. En exécutant des applications de deep learning sur des instances Cloud avec un matériel sous-jacent puissant, vous pouvez fournir ces recommandations plus rapidement.
Les tests ont comparé comparé les performances d'inférence Wide & Deep de deux types d'instances Cloud EC2 d'Amazon Web Services (AWS) avec différentes configurations de processeurs : les instances M6i équipées de processeurs Intel® Xeon® Scalable de 3ᵉ génération et les instances M6a équipées de processeurs AMD EPYC de 3ᵉ génération. Les instances M6i de petite, moyenne et grande taille ont offert de meilleures performances (mesurées en images par seconde (IPS)) que leurs homologues M6a. En choisissant ces instances M6i plus performantes pour vos charges de travail d'inférence Wide & Deep, votre site Web pourrait fournir des recommandations plus rapides.
Instances de grande taille 96 vCPU
Les tests ont utilisé le framework TensorFlow pour évaluer les performances du moteur de recommandation Wide & Deep des deux séries d'instances AWS. Comme le montre la Figure 1, les instances m6i.24xlarge de 96 vCPU équipées de processeurs Intel® Xeon® Scalable de 3ᵉ génération ont traité 1,75 fois plus d'IPS sur le banc d'essai Wide & Deep que les instances m6a.24xlarge équipées de processeurs AMD EPYC de 3ᵉ génération.
Instances de taille moyenne 64 vCPU
Comme le montre la Figure 2, les instances m6i.16xlarge de 64 vCPU équipées de processeurs Intel® Xeon® Scalable de 3ᵉ génération ont traité 1,35 fois plus d'IPS que les instances m6a.16xlarge équipées de processeurs AMD EPYC de 3ᵉ génération.
Instances de petite taille 16 vCPU
Comme le montre la Figure 3, les instances m6i.4xlarge de 16 vCPU équipées de processeurs Intel® Xeon® Scalable de 3ᵉ génération ont traité 1,67 fois plus d'IPS que les instances m6a.4xlarge équipées de processeurs AMD EPYC de 3ᵉ génération.
Conclusion
Les tests de performances du moteur Wide & Deep Recommender sur deux séries d'instances AWS ont révélé que les instances M6i dotées de processeurs Intel® Xeon® Scalable de 3ᵉ génération étaient plus performantes que les instances M6a équipées de processeurs AMD EPYC de 3ᵉ génération. Les instances M6i ont traité jusqu'à 1,75 fois plus d'images par seconde, ce qui pourrait permettre à l'application de générer des recommandations aux clients plus rapidement et de stimuler vos ventes plus efficacement.
Plus d'infos
Pour commencer à exécuter vos charges de travail Wide & Deep Recommender sur des instances Amazon M6i équipées de processeurs Intel Xeon Scalable de 3ᵉ génération, visitez https://aws.amazon.com/fr/ec2/instance-types/m6i/.
Pour connaître tous les détails du test et les résultats qui montrent comment ces instances équipées de processeurs Intel® Xeon® Scalable de 3ᵉ génération se sont comportées par rapport aux instances équipées de processeurs AMD EPYC de 3ᵉ génération, lisez le rapport sur https://facts.pt/ZlqeNXb.