Inscrivez-vous pour recevoir des informations exclusives, des conseils et communiqués

Faites partie des premiers à être informés des nouveautés avec la distribution Intel® du kit d'outils OpenVINO™. En vous inscrivant, vous recevrez :

• Un accès anticipé aux mises à jour et aux nouveaux produits
• Des invitations exclusives à des webinaires et à des événements
• Des ressources de formation et des tutoriels
• Des annonces de concours
• D'autres informations

En envoyant ce formulaire, vous confirmez que vous avez plus de 18 ans et que vous acceptez de partager vos renseignements personnels avec Intel aux fins de traiter cette demande commerciale. Les sites Web et les communications d'Intel sont soumis à notre Politique de confidentialité et à nos Conditions d'utilisation.
En envoyant ce formulaire, vous confirmez que vous avez plus de 18 ans et que vous acceptez de partager vos renseignements personnels avec Intel aux fins de traiter cette demande commerciale. Vous acceptez aussi de vous abonner pour être tenu au courant des dernières technologies Intel et des tendances de l'industrie par e-mail et par téléphone. Vous pouvez résilier votre abonnement à tout moment. Les sites Web et les communications d'Intel sont soumis à notre Politique de confidentialité et à nos Conditions d'utilisation.

Assistance, ressources et questions-réponses

Vous pouvez signaler les problèmes liés aux outils OpenVINO dans le référentiel GitHub. Si vous avez des questions sur les kits de référence pour l'IA à l'Edge, participez à la discussion sur le référentiel pour les notebooks OpenVINO ou sur le forum d'assistance d'Intel.

Intel propose des kits de référence pour l'IA à l'Edge pour des cas d'utilisation spécifiques de l'IA, tels que l'analyse des compteurs intelligents, la détection d'anomalies en temps réel et la gestion intelligente des files d'attente. De nouveaux cas d'utilisation sont ajoutés régulièrement. Tirez parti de la vision par ordinateur en temps réel pour créer des solutions d'inférence IA à l'aide de la reconnaissance d'objets, de la segmentation d'objets et de nouvelles fonctionnalités telles que l'IA générative.

Ces kits utilisent des modèles optimisés pré-entraînés qui accélèrent l'IA sur les plateformes les plus courantes et comprennent une documentation détaillée, des vidéos pratiques, des exemples de code et des référentiels GitHub. Ils vous permettent d'accélérer votre processus de déploiement, d'adoption et de gagner du temps.

La boîte à outils OpenVINO accélère le processus de compression des modèles pour les cas d'utilisation de l'IA, puis leur déploiement sur diverses plateformes matérielles. Cela accélère le développement de solutions d'inférence IA et vous permet de transformer plus efficacement vos idées en applications d'IA réelles.

 

Oui. La boîte à outils OpenVINO compile les modèles pour les faire fonctionner sur de nombreux appareils différents, ce qui vous permet d’écrire le code une seule fois et de déployer votre modèle sur des CPU, des GPU, des VPU et d’autres accélérateurs

Pour obtenir les meilleures performances possibles, il est important de configurer et d'installer correctement les derniers pilotes de GPU sur votre système. Utilisez le guide Comment installer des pilotes GPU Intel sur Windows* et Ubuntu*.

Remarque Utilisez le guide pour installer les pilotes et configurer votre système avant d'utiliser les outils OpenVINO pour les solutions d'inférence IA basées sur un GPU.

Ce guide a été testé sur les cartes graphiques Intel® Arc™ et le GPU Intel® Data Center Flex Series sur des systèmes équipés d'Ubuntu 22.04 LTS et de Windows 11. Pour utiliser le plug-in GPU du kit d'outils OpenVINO et décharger l'inférence sur les GPU Intel, le pilote graphique Intel® doit être correctement configuré sur votre système.

La nouvelle famille de GPU dédiés d'Intel n'est pas seulement destinée aux jeux vidéo, elle peut également faire fonctionner l'IA à l'Edge ou sur des serveurs.

L'architecture du plug-in de la boîte à outils OpenVINO prend en charge l'optimisation de l'inférence IA sur du matériel tiers ainsi que sur les plateformes Intel. Voir la liste complète des dispositifs pris en charge ici.

Le kit d'outils OpenVINO est optimisé dans une optique de performances. Il exécute des modèles de deep learning à forte intensité de calcul, avec un impact minimal sur la précision. Il dispose de fonctionnalités qui optimisent l'efficacité, comme le plug-in AUTO pour les dispositifs ou la planification des threads sur les processeurs Intel Core de la 12ᵉ génération et supérieur.

Le kit d'outils OpenVINO est parfaitement compatible avec de nombreux frameworks et protocoles normalisés. Le serveur de modèles OpenVINO™ utilise la même architecture et la même API que TensorFlow* Serving et KServe pour rendre le déploiement plus évolutif pour les charges de travail modernes.

Le kit d'outils OpenVINO minimise le temps nécessaire au traitement des données d'entrée pour produire une prédiction en sortie. La prise de décision est plus rapide et les interactions avec le système sont plus efficaces.

Grâce à l'API de conversion de modèle et au NNCF, OpenVINO propose plusieurs techniques d'optimisation pour améliorer les performances et réduire la latence.

Pour en savoir plus sur les différentes options de compression de modèle telle que l'entraînement tenant compte de la quantification, la quantification post-entraînement, consultez le guide d'optimisation de modèle.

Le serveur de modèles OpenVINO, qui fait partie de la boîte à outils OpenVINO, vous permet d'héberger des modèles et de déployer efficacement des applications sur un large éventail de matériel. Vous pouvez intégrer l'accélération de l'inférence IA sans réécrire le code.

  • Votre modèle est accessible via des protocoles réseau standard grâce à une API commune, qui est également utilisée par KServe.
  • L'inférence IA à distance vous permet de créer des clients légers qui se concentrent sur les appels d'API, ce qui nécessite moins de mises à jour.
  • Les applications peuvent être développées et gérées indépendamment du framework, du matériel et de l'infrastructure du modèle.
  • Contrôle d'accès au modèle simplifié puisque la topologie et les poids ne sont pas exposés par les applications clientes.
  • Cette structure de déploiement permet une mise à l'échelle horizontale et verticale plus efficace de l'inférence IA.

Grâce à un ensemble complet d'outils et de ressources, vous pouvez rationaliser les workflows tout en optimisant l'inférence IA et les performances réelles des modèles d'IA avec OpenVINO.