Surmonter les défis du déploiement de l'IA
Les entreprises veulent figurer parmi les premières à déployer de nouvelles capacités améliorées par l'IA qui les aideront à se démarquer de la concurrence, à maximiser la rentabilité et l'efficacité, et à améliorer leur expérience client.
Mais comme le découvrent de nombreux architectes de solutions, développeurs et leaders technologiques, faire passer un projet d'IA de l'étude de faisabilité (PoC) à la production n'est pas une tâche facile. Les entreprises sont confrontées à des défis tout au long de leur parcours, notamment la création d'une infrastructure d'IA de taille adaptée et évolutive, la protection de la vie privée et de la sécurité, ainsi que l'optimisation du temps de développement des solutions.
Pour vous aider à relever ces défis et à éviter d'autres pièges émergents, cet article présente des stratégies, des idées et des conseils essentiels pour la création de solutions d'IA en entreprise. Nous décrirons également du matériel et des logiciels Intel® susceptibles d'améliorer vos résultats.
Que vous partiez de zéro, que vous créiez une solution à partir de composants pré-assemblés ou que vous achetiez une offre prête à l'emploi, voici comment vous pouvez rationaliser vos efforts.
N'investissez pas dans du matériel spécialisé si vous n'en avez pas besoin
De nombreux technologues pensent à tort que les charges de travail d'IA nécessitent un GPU ou un accélérateur d'IA dédié et spécialisé. Ce n'est tout simplement pas vrai. Cette croyance erronée peut amener les entreprises à penser qu'elles doivent investir considérablement dans du matériel et jugent les initiatives d'IA trop coûteuses.
Par exemple, les charges de travail du Machine Learning classique ne bénéficient généralement pas beaucoup d'un accélérateur dédié, ce qui fait des CPU un choix très efficace pour des algorithmes tels que la régression logistique, les arbres de décision et la régression linéaire.
Avant d'investir de l'énergie et des ressources dans des équipements avancés comme des GPU (y compris les licences), déterminez ce que votre charge de travail exige réellement. Vous pourrez peut-être traiter des charges de travail d'IA dans le centre de données et à l'edge à l'aide des processeurs Intel® Xeon® Scalable. Ces processeurs sont équipés de moteurs d'IA intégrés qui accélèrent considérablement les charges de travail d'IA, tant au niveau de l'entraînement que de l'inférence.
Deux moteurs d'IA inclus dans les processeurs Intel® Xeon® Scalable vous permettent d'offrir des performances d'IA élevées en utilisant une architecture uniquement composée de CPU :
- Intel® Advanced Matrix Extensions (Intel® AMX) : optimisez les performances des charges de travail d'entraînement et d'inférence du Deep Learning qui reposent sur des opérations mathématiques matricielles, notamment le traitement du langage naturel, les systèmes de recommandation et la reconnaissance d'images.
- Intel® Advanced Vector Extensions 512 (Intel® AVX-512) : accélérez l'IA, l'analytique, les simulations scientifiques, les simulations financières et d'autres tâches à forte intensité de calcul qui impliquent des calculs vectoriels.
L'exécution de charges de travail d'IA uniquement sur des processeurs Intel® Xeon® Scalable peut aider les entreprises à économiser sur les coûts de matériel tout en améliorant l'efficacité énergétique. Les développeurs évitent ainsi la complexité du matériel spécialisé et les modifications dans le code ou l'application. Votre entreprise a probablement déjà investi dans des processeurs Intel® Xeon® Scalable, ce qui facilite leur adoption pour l'IA.
Bien qu'Intel propose une gamme complète de solutions d'IA extrêmement performantes, nous suggérons à la plupart des entreprises de commencer par les processeurs Intel® Xeon® Scalable. Ils peuvent être utilisés de l'Edge au Cloud pour maximiser les efforts de votre entreprise en matière d'IA.
Intel collabore également avec les principaux fournisseurs de plateformes d'infrastructure d'entreprise comme RedHat et VMware, afin d'optimiser la flexibilité et l'efficacité de l'IA tout en accélérant les performances de l'Edge au Cloud.
Pour les charges de travail exigeantes, ne vous contentez pas du H100
Les processeurs Intel® Xeon® Scalable gèrent des tâches de complexité faible ou moyenne. Votre cas d'utilisation peut néanmoins impliquer des charges de travail exigeantes qui nécessitent une couche supplémentaire de matériel spécialisé. Si votre cas d'utilisation de l'IA est exigeant, vous aurez besoin d'un puissant accélérateur dédié, souvent sous la forme d'un GPU ou d'un processeur spécialement conçu pour l'IA.
Bien entendu, les performances et l'efficacité sont les maîtres mots dans ce domaine, et les technologies Intel® offrent un avantage certain par rapport à nos concurrents. Par exemple, les accélérateurs d'IA Intel® Gaudi 3 sont :
- 1,5 fois plus rapides pour l'entraînement que le NV H100 en moyenne1
- 1,5 fois plus rapides pour l'inférence que le NV H100 en moyenne2
- 1,4 fois plus énergétiquement efficaces pour l'inférence que le NV H100 en moyenne3
Vous pouvez consulter des statistiques détaillées sur les performances des produits d'IA Intel® pour centres de données ici.
Les outils logiciels sont votre arme secrète pour l'IA
Que vous conceviez une solution d'IA à partir de zéro ou espériez exploiter un ensemble d'éléments pré-assemblés, vous savez probablement que les outils de développement de logiciels et d'entraînement des modèles sont tout aussi importants que le matériel. Cela s'avère d'autant plus vrai dans le contexte des architectures hétérogènes qu'impliquent la plupart des initiatives d'IA en entreprise.
Pour rentabiliser plus rapidement votre investissement, Intel propose un large portefeuille d'outils logiciels spécialisés, de kits de référence, de frameworks et de bibliothèques optimisés, ainsi que d'éléments de solution pré-conçus. Grâce à nos ressources de développement pour l'IA, vous pouvez améliorer la productivité des développeurs, optimiser les performances et déployer plus facilement vos capacités d'IA.
Nous proposons une gamme d'outils qui peuvent avoir un impact majeur sur votre initiative d'IA en entreprise, notamment :
- Le kit d'outils OpenVINO™ simplifie considérablement l'inférence IA grâce à des capacités basées sur le concept « write once, deploy anywhere » (écrire une fois, déployer partout).
- Les outils d'IA d'Intel (auparavant Intel® AI Analytics Toolkit) fournissent aux scientifiques des données, aux développeurs d'IA et aux chercheurs des outils et des frameworks Python familiers pour accélérer la science des données de bout en bout et les pipelines analytiques sur l'architecture Intel®.
- Les optimisations de frameworks d'IA peuvent améliorer les performances des frameworks de Deep Learning et de Machine Learning les plus répandus avec un minimum d'efforts.
En outre, nous proposons un ensemble de kits d'entraînement et de référence pour les cas d'utilisation critiques de l'IA en entreprise :
N'oubliez pas de consulter également notre gamme complète de kits de référence pour l'IA, élaborés en collaboration avec Accenture.
En plus de fournir un solide portefeuille d'outils logiciels, Intel joue un rôle important dans la plateforme ouverte pour l'IA en entreprise (OPEA) de la Fondation Linux. Nous participons au développement d'un cadre d'orchestration de l'écosystème pour intégrer efficacement les technologies et les flux de travail d'IA générative, dans le but d'accélérer l'adoption et d'améliorer la valeur métier avec un développement collaboratif. Nos contributions comprennent un ensemble d'implémentations de référence avec des frameworks pour :
- Un chatbot sur les processeurs Intel® Xeon® Scalable et les accélérateurs d'IA Intel® Gaudi®
- Un outil de génération de résumés de texte à l'aide des accélérateurs d'IA Intel® Gaudi®
- Un système de réponse visuelle aux questions (VQA) sur les accélérateurs d'IA Intel® Gaudi®
- Un copilote conçu pour la génération de code dans Visual Studio Code sur les accélérateurs d'IA Intel® Gaudi®
Personnalisez un modèle de base pour accélérer votre initiative
Chaque cas d'utilisation de l'IA est unique. De nombreuses applications nécessiteront un certain degré d'entraînement des modèles. La bonne nouvelle, c'est que vous n'avez pas besoin de partir de zéro.
Les modèles open source, également appelés modèles de base, constituent un point de départ pour vos capacités d'IA. Ces modèles peuvent être personnalisés et ajustés de manière à répondre aux besoins spécifiques de votre solution d'IA. Dans l'ensemble, le processus d'ajustement (fine-tuning) d'un modèle de base est plus simple et plus rapide que la création d'un modèle à partir de zéro. Cette approche peut vous faire gagner un temps précieux dans votre course contre la concurrence.
Les processeurs Intel® Xeon® Scalable constituent une excellente plateforme pour l'ajustement des modèles, permettant aux développeurs d'IA de :
- Obtenir des performances d'inférence et d'entraînement en temps réel avec PyTorch jusqu'à 10 fois supérieures grâce aux accélérateurs Intel® Advanced Matrix Extension (Intel® AMX) intégrés4.
- Ajuster un modèle de traitement du langage naturel (NLP), tel que DistilBERT, en moins de quatre minutes, ce qui peut réduire ou éliminer le besoin d'un accélérateur dédié5.
- Réduire le temps de latence sur le grand modèle de langage (LLM) Llama 2 avec DeepSpeed, un package d'optimisation du Deep Learning.
Les modèles de base courants à connaître dans les principaux cas d'utilisation de l'IA sont les suivants :
- Vision par ordinateur : CLIP et YOLO
- IA générative : ChatGPT et Llama 2
- Traitement du langage naturel : ChatGPT, Llama 2, BERT
Explorez le processus de personnalisation des modèles open source, également connu sous le nom d'apprentissage par transfert. Et n'oubliez pas de consulter nos ressources pour les développeurs, élaborées en collaboration avec Hugging Face.
Accélérez la personnalisation des modèles d'IA générative grâce à la génération augmentée de récupération
Les entreprises intéressées par les applications d'IA générative peuvent également tirer parti de l'approche RAG pour accélérer la création de valeur à partir de l'IA.
Dans la méthodologie RAG, de grands modèles de langage de base sont connectés à des bases de connaissances, souvent des données propriétaires spécifiques à l'entreprise, afin d'injecter un contexte et des informations pertinentes. En adoptant cette approche, vous pouvez obtenir des capacités d'IA personnalisées tout en évitant d'avoir à entraîner des modèles supplémentaires, ce qui peut réduire les coûts globaux et la complexité de votre initiative.
Cet article explique comment déployer des applications RAG.
Transformez vos experts en scientifiques des données
Traduire l'expertise de votre équipe en capacités d'IA intelligentes constitue un obstacle de taille pour de nombreuses entreprises, en particulier si votre équipe n'a pas de connaissances techniques ou n'est pas à l'aise avec la science des données.
Pour les applications de vision par ordinateur, Intel propose la plateforme Intel® Geti, un moyen plus simple pour les scientifiques non spécialisés dans les données de participer à l'entraînement des modèles. Grâce à l'étiquetage et à l'annotation faciles, la plateforme Intel® Geti permet de tirer parti de l'expertise de votre équipe pour créer des solutions de vision par ordinateur plus performantes et plus précises. La prise en charge complète de l'exportation, du ré-entraînement de modèles et de l'optimisation des hyperparamètres vous permet d'utiliser cette plateforme comme une solution de bout en bout pour les cas d'utilisation critiques de la vision par ordinateur tels que la détection d'anomalies, la classification et la détection d'objets.
Appliquez l'informatique confidentielle pour la sécurité et la conformité
La sécurité et la conformité réglementaire sont des préoccupations essentielles pour les entreprises, en particulier lorsque de multiples ensembles de données sensibles doivent être rassemblés lors de l'entraînement des modèles d'IA.
Pour vous aider à protéger les données et les charges de travail sensibles, quel que soit l'endroit où elles sont exécutées, Intel propose une suite de capacités d'informatique confidentielle dans les processeurs Intel® Xeon® Scalable. Ces technologies sont conçues pour protéger les données en cours d'utilisation grâce à des capacités d'isolement, de chiffrement, de contrôle et de vérification.
Notre portefeuille d'informatique confidentielle comprend :
- Intel® Software Guard Extensions (Intel® SGX) : offre de nouvelles opportunités de collaboration et d'analyse, même avec des données sensibles ou réglementées.
- Intel® Trust Domain Extensions (Intel® TDX) : renforce la confidentialité au niveau des VM et améliore le contrôle sur vos données.
- Services de confiance Intel® Tiber™ (anciennement connu sous le nom d'Intel® Trust Authority) : fait passer l'informatique confidentielle au niveau supérieur avec un SaaS d'attestation Zero Trust qui vérifie la fiabilité des ressources de calcul au niveau du réseau, à l'Edge et dans le Cloud.
Évaluez votre parc de PC avec IA
Si votre cas d'utilisation de l'IA implique que des utilisateurs finaux au sein de votre organisation exécutent des charges de travail d'IA localement, vous devrez évaluer votre parc pour savoir s'il est prêt pour l'IA. Les charges de travail d'IA imposent de nouvelles exigences aux PC portables et de bureau que votre équipe utilise au quotidien. De mauvaises performances sur ces machines peuvent compromettre votre investissement en amont dans les capacités d'IA.
Pour vous aider à rationaliser votre investissement dans les PC avec IA, nous proposons le processeur Intel® Core™ Ultra, qui regroupe trois moteurs de calcul différents afin de booster les performances de l'IA pour les utilisateurs finaux. Il dispose également d'une unité de traitement neuronal intégrée capable de gérer des charges de travail d'IA soutenues et fortement sollicitées, en consommant peu d'énergie pour une plus grande efficacité. Intel a également collaboré avec plus de 100 partenaires ISV sur plus de 300 fonctionnalités accélérées par l'IA pour améliorer les expériences sur PC dans les domaines des effets audio, de la création de contenu, des jeux, de la sécurité, du streaming, de la collaboration vidéo, et bien plus encore.
Intégrez l'IA partout avec Intel
Les entreprises sont poussées à innover en ayant recours à l'IA. Intel est là pour vous aider à y parvenir rapidement et efficacement. Nous travaillons constamment avec des entreprises de premier plan pour les aider à mettre en place les capacités d'IA dont elles ont besoin avec un maximum d'efficacité, de performances et de sécurité.
Nous collaborons également avec des ISV, des fabricants OEM, des SI, des spécialistes de l'IA et des fournisseurs de services Cloud sur lesquels les entreprises s'appuient pour rendre possible leur transformation. Notre stratégie de systèmes évolutifs, basée sur les composants d'Intel et de nos partenaires de l'écosystème, facilite l'adoption de l'IA par les entreprises. En choisissant notre plateforme, vous bénéficiez d'années d'expérience pratique qui font de l'IA une réalité pour des organisations innovantes dans le monde entier. Notre vaste et profond écosystème de partenaires garantit l'ouverture et l'interopérabilité dont vous avez besoin pour obtenir des résultats aujourd'hui et demain.
Lorsque vous continuerez à explorer les possibilités de l'IA, n'oubliez pas que votre équipe pourra tester de nombreuses technologies Intel® abordées dans cet article en utilisant le Cloud Intel® Tiber® pour les développeurs.
Vous pouvez également consulter les offres de notre écosystème de partenaires d'IA dans la Vitrine des partenaires Intel®.