Flux de travail pour les sciences des données de base
Ces postes de travail spécialement conçus combinent une grande capacité de mémoire, de nombreux emplacements d'extension pour connecter plusieurs périphériques ainsi que des PROCESSEURS triés sur le volet conçus pour répondre aux exigences uniques des scientifiques des données et des analystes de données basés sur Python comme vous.
Station de travail pour les sciences des données : superpuissances incluses
En tant que scientifique des données, vous passez la plupart de votre temps à vous disputer des ensembles de données de moyenne et grande taille dans des bibliothèques et des algorithmes Python à forte intensité de processeur - ce qui entrave le bon fonctionnement de la plupart des postes de travail.
C'est parce que votre poste de travail est probablement sur-construit pour la formation des modèles, mais sous-construit pour la transformation des données à forte intensité de mémoire.
Évitez les erreurs de mémoire lorsque vous essayez de charger et d'explorer des données - une expérience courante lorsque les fonctions Pandas nécessitent plus de mémoire que votre machine ou votre instance cloud.
Calcul NumPy/SciPy plus rapide que la génération précédente
L'algèbre linéaire est le fondement de la science numérique et des données. Les outils de calcul numérique fournis par NumPy et SciPy permettent au scientifique des données d'évoluer à travers des analyses et des fonctions numériques ainsi qu'une variété de modèles d'apprentissage automatique et de formules mathématiques. iBench est une référence qui teste les commandes de stress en algèbre linéaire des algorithmes courants utilisés dans NumPy et SciPy tels que dot, det, inv, lu, qr et svd. Les performances sont mesurées en secondes (plus c'est bas, mieux c'est). Comparé au Xeon-W3275 de 3e génération, le Xeon-W3495X de 4e génération s'est avéré 25 à 75 % plus rapide lors des derniers tests iBench.1
Des sciences des données boostées
Nous avons conçu des postes de travail adaptés aux sciences des données basés sur Intel pour rendre les flux de travail d'IA et d'apprentissage automatique à forte intensité de données rapides, fluides et réactifs. Avec jusqu'à 8 To de mémoire dans les systèmes à double socket et les processeurs adaptés à la charge de travail, ces stations de travail peuvent exécuter des ensembles de données de taille moyenne à grande en mémoire et réduire les heures consacrées aux tâches les plus fastidieuses du développement de l'IA.
Stations de travail pour sciences des données basées sur Intel
Les stations de travail de science des données basées sur Intel sont disponibles en trois plates-formes - mobile, grand public et expert - avec une gamme de processeurs, de capacités de mémoire et de slots d'extension PCIe.
Plateformes mobiles pour sciences des données pour des ensembles de données de 32 Go à 64 Go
Des performances remarquables en matière de développement de l'IA mobile et de visualisation des données.
- Intel Core série HX avec jusqu'à 24 cœurs (8P+16E).
- DRAM DDR5 de 128 Go pour toutes les plateformes.
- UGS recommandées :
- i9-13950HX (24 cœurs)
- i7-13850HX (20 cœurs)
Plateformes grand public pour les sciences des données pour des ensembles de données de 64 Go à 512 Go
Excellentes performances par dollar en matière de prétraitement et d'analyse sur des ensembles de données de taille moyenne.
- Processeurs Intel Xeon W-2400 avec jusqu'à 24 cœurs débloqués.
- Jusqu'à 2 To de RIDMM DDR5.
- UGS recommandées :
- W7-2495X (24 cœurs)
- W5-2465X (16 cœurs)
Plateformes expertes en sciences des données pour jusqu'à 8 To DDR5 pour les plates-formes à double socket
Des performances maximales en matière de manipulation de grands ensembles de données, d'apprentissage automatique et d'analyse des données.
- Processeurs Intel Xeon W-3400 avec jusqu'à 56 cœurs.
- Jusqu'à 4 To de DDR5 RIDMM pour la série W-3400 et jusqu'à 8 To de DDR5 pour les plates-formes Xeon SP 4e génération à double socket.
- UGS recommandées pour les plates-formes à socket unique :
- W9-3475X (36 cœurs)
- W7-3455 (24 cœurs)
- W5-3425X (16 cœurs)
- UGS recommandées pour les plates-formes à double socket :
- 6448Y (32 cœurs)
- 6442Y (24 cœurs)
- 6444Y (16 cœurs)
Choisissez votre station de travail pour les sciences des données basée sur Intel
Les stations de travail pour les sciences des données basées sur Intel sont disponibles en plusieurs configurations et à des prix variés auprès de partenaires et de fabricants Intel.
Exécutez plus rapidement vos tâches avec la boîte à outils d'analyse de l'IA Intel® oneAPI
Nous avons optimisé les outils les plus populaires de l'écosystème Python pour les architectures Intel et les avons regroupés dans la boîte à outils d'analyse de l'IA Intel oneAPI pour faciliter votre expérience en matière de création de votre environnement pour les sciences des données et pour augmenter les performances de ces outils. Ces optimisations sont prêtes à être exécutées afin que vous puissiez travailler plus rapidement avec peu ou pas de modifications de codage.
Foire aux questions
Il y a deux facteurs principaux à prendre en compte lors du choix d'une station de travail pour les sciences des données : quels outils et techniques vous utilisez le plus et la taille de vos ensembles de données.
En matière de cadres pour les sciences des données, un nombre de cœurs plus élevé ne se traduit pas toujours par de meilleures performances. NumPy, SciPy et scikit-learn n'évoluent pas bien au-delà de 18 cœurs. D'autre part, HEAVY.AI (anciennement OmniSci) prendra tous les cœurs qu'il peut obtenir.
Toutes les stations de travail basées sur Intel utilisent les processeurs évolutifs Intel® Core™, Intel® Xeon® W et Intel® Xeon® qui excellent en matière de charges de travail pour les sciences des données dans les tests du monde réel. Vous obtiendrez les meilleures performances de la famille de processeurs de tous les modèles, ce qui fait de la capacité de mémoire votre choix le plus important.
Les cadres pour les sciences des données enregistrent deux à trois fois les empreintes du gonflement de la mémoire Pour obtenir vos besoins de mémoire de base, examinez vos ensembles de données typiques et multipliez-les par trois. Si vous pouvez travailler avec 512 Go ou moins, vous pouvez obtenir d'excellentes performances avec une machine de bureau. Si vos ensembles de données ont tendance à dépasser les 500 Go, vous aurez besoin d'une tour avec 1,5 To de mémoire ou plus.
Les accélérateurs GPU sont parfaitement adaptés pour la formation de modèles de deep learning et l'inférence de deep learning à grande échelle. Cependant, pour la majeure partie du travail en sciences des données - préparation des données, analyse et apprentissage automatique classique - ces GPU restent inactifs, car la plupart des bibliothèques Python pour les science des données s'exécutent nativement sur le processeur. Vous avez besoin d'un adaptateur graphique pour piloter vos écrans, mais pas d'un appareil GPU.
Le cloud ne vous offrira pas les meilleures performances à moins que vous n'utilisiez une VM dédiée ou un serveur bare metal. Les instances cloud se présentent comme un nœud unique, mais à l'arrière-plan, les choses sont hautement distribuées. Votre charge de travail et vos données sont réparties sur plusieurs serveurs à plusieurs emplacements. Cela crée des latences de traitement et de mémoire qui dégradent l'exécution. De plus, travailler avec de grands ensembles de données et des graphiques via un bureau distant n'est pas une expérience idéale.
Gérer la charge de travail et les données de manière locale, sur une seule machine, peut offrir de bien meilleures performances et une expérience de travail plus fluide et plus réactive.
Vous pouvez le faire, mais vous allez perdre énormément de temps à regarder les données naviguer entre le stockage, la mémoire et le processeur. Si vous travaillez dans un environnement professionnel, la mise à niveau vers un ordinateur portable Intel® pour les sciences des données ou un ordinateur de bureau de milieu de gamme peut vous faire gagner du temps. Nous avons intentionnellement testé et spécifié des ordinateurs portables de science des données basés sur Intel® Core™ afin que les étudiants, les débutants et les fabricants d'IA puissent avoir une option abordable pour développer et expérimenter des outils d'IA open source.
Vous pouvez exécuter plus rapidement les outils de science des données basés sur Python sur un PC standard à l'aide de bibliothèques et de distributions optimisées par Intel. Elles font toutes partie du kit Intel IA gratuit.
Avis et avertissements
Selon les mesures effectuées à l'aide de la plate-forme de validation Intel, comparant Intel Xeon w9-3495X à Intel® Xeon® W-3275 sur NumPy/SciPy – Inv, N=25000
Voir intel.com/performanceindex pour obtenir des informations sur les configurations. Les résultats effectifs peuvent varier.
Les résultats de performance s'appuient sur les tests réalisés aux dates indiquées dans les configurations et peuvent ne pas refléter toutes les mises à jour de sécurité disponibles. Voir la sauvegarde pour obtenir des détails de configuration. Pour en savoir plus, consultez le site intel.com/PerformanceIndex.
L'accélération Pandas, scikit-learn et TensorFlow réalisée à l'aide de la distribution Intel® de Modin. Pour de plus amples informations, consultez intel.com/content/www/fr/fr/developer/articles/technical/code-changes-boost-pandas-scikit-learn-tensorflow.html#gs.mdyh9o.
© Intel Corporation. Intel, le logo Intel et les autres marques Intel sont des marques commerciales d'Intel Corporation ou de ses filiales. Les autres noms et dénominations peuvent être revendiqués comme marques par des tiers.