Analysez jusqu’à 1,55 fois les données par seconde pour les charges de travail Apache Spark™ avec les RMA Microsoft® Azure® Dds_v4 équipées de processeurs Intel® Xeon® scalables de 2e génération

Apache Spark

  • Analysez plus de données par seconde avec un débit 1,23 fois supérieur sur de petites RMA.

  • Débit 1,46 fois plus important sur des RMA moyennes.

  • Débit 1,55 fois plus élevé sur de grandes RMA.

author-image

Par

Accélérez les charges de travail de machine learning avec les RMA Microsoft Azure série Dds_v4 équipées de processeurs Intel Xeon scalable de 2e génération

Donner un sens aux quantités massives de données collectées par votre organisation est une grande tâche , qui nécessite une mise à jour de la technologie pour faire le travail rapidement. Les RMA Cloud Microsoft Azure que vous sélectionnez pour héberger les clusters Apache Spark dictent la rapidité à laquelle vous pouvez obtenir des informations exploitables à partir de vos données et les transformer en stratégie commerciale. Pour les charges de travail exigeantes d’Apache Spark en matière de machine learning sur Microsoft Azure, la sélection de Dds_v4 RMA activées par les processeurs Intel Xeon Scalable de 2e génération peut vous permettre d’analyser davantage de données par seconde afin de renforcer l’agilité de votre entreprise.

Dans les tests de deux implémentations de machine learning comparant les RMA Microsoft Azure, les RMA plus récents de la série Dds_v4 activés par les processeurs Intel Xeon Scalable de 2e génération ont été plus performants que les RMA plus anciens de la série Ds_v3 avec des processeurs Intel Xeon E5 v4, analysant jusqu’à 1,55 fois les données par seconde pour les charges de travail d’apprentissage machine Apache Spark.

Dans les petites, moyennes et grandes tailles, la sélection de Dds_v4 série de RMA équipées de processeurs Intel Xeon scalables de 2e génération sur des RMA plus anciennes Ds_v3 peut vous permettre de trier davantage de données, plus rapidement et de prendre des décisions commerciales rapides s’appuient sur la vérité de ces données.

Les petites entreprises obtiennent plus rapidement des informations grâce aux petites RMA

Le simple fait qu’une organisation soit petite ne signifie pas que ses exigences en matière de machine learning le sont. Pour les besoins de machine learning à grande échelle sur les petites RMA, le choix de la technologie mise à jour peut faire en sorte que les RMA dans le Cloud répondent aux exigences actuelles et offrent de la place pour se développer.

Les tests comparant de petites RMA à huit vCPU montrent que le choix des RMA Microsoft Azure Dds_v4 équipés de processeurs Intel Xeon Scalable de 2e génération peut augmenter les charges de travail d’apprentissage automatique Apache Spark de 1,23 fois jusqu’à 1,23 fois les charges de travail par seconde des RMA de Ds_v3 série avec des processeurs Intel Xeon E5 v4.

Les moyennes entreprises obtiennent plus tôt des informations avec les RMA moyennes

Comme pour les tests réalisés avec de petites tailles de machines virtuelles, les tests comparant des VM moyennes à 16 vCPU ont montré que Microsoft Azure Dds_v4 des VM équipées de processeurs Intel® Xeon® Scalable de 2e génération ont amélioré à la fois les implémentations de machine learning bayésian et k-means naïves sur Apache Spark, offrant dans ce cas un débit jusqu’à 1,46 fois celui des machines virtuelles Ds_v3 plus anciennes.

Les entreprises obtiennent plus rapidement des informations grâce aux grandes RMA

Les tests montrent que la plus grande amélioration de débit pour les performances d’apprentissage automatique Apache Spark peut être possible avec des tailles d’instance plus grandes (avec 64 vCPU), offrant jusqu’à 1,55 fois le débit des RMA de la série Ds_v3 pour un test de classification Bayesian naïve.

Par rapport aux anciennes séries de Ds_v3, les VM Microsoft Azure Dds_v4 compatibles avec les processeurs Intel Xeon Scalable de 2e génération offrent des améliorations spectaculaires des performances, offrent des disques durs par défaut 50 % plus volumineux et fournissent des entrées/sorties sur disque par défaut élevées, quelle que soit la taille des VM dont ils ont besoin. Cela permet à Azure Dds_v4 VM d’améliorer le machine learning pendant la série Ds_v3 à des tailles de VM multiples.

Pour en savoir plus

Pour commencer vos charges de travail de machine learning Apache Spark sur les RMA Microsoft Azure Dds_v4 série avec des processeurs Intel Xeon scalable de 2e génération, rendez-vous sur http://intel.com/Azure.

Pour en savoir plus sur le test, consultez http://facts.pt/pg16MAO.

Le contenu de cette page est une combinaison de traduction humaine et informatique du contenu original en anglais. Ce contenu vous est fourni pour votre commodité et à titre informatif seulement et ne saurait être totalement exact ou complet. En cas de contradiction entre la version anglaise de cette page et la traduction, c'est la version anglaise qui prévaut. Afficher la version anglaise de cette page.