Un monde de possibilités (solutions d'IA concrètes)
Découvrez ce qui est possible, et commencez à concevoir vos solutions d'IA avec le kit d'outils OpenVINO™.
Le développement de l'IA à l'Edge ouvre de nombreuses possibilités et de nombreux cas d'utilisation, et permet de déployer l'IA directement sur les appareils Edge. Explorez les kits de référence pour l'IA à l'Edge d'Intel, qui comprennent un notebook Jupyter*, des vidéos explicatives, des tutoriels étape par étape, et bien plus encore.
Kits de référence pour l'IA à l'Edge
Lancez votre solution d'IA en la développant avec les kits de référence pour l'IA à l'Edge ou en l'intégrant à vos applications existantes. Les composants pré-construits peuvent servir de base à des applications d'inférence IA personnalisées dans de nombreux secteurs tels que la vente au détail, les soins de santé et l'industrie manufacturière. Le recours aux bonnes pratiques vous permet de gagner en rapidité par rapport aux workflows de développement classiques. |
Application à tester : Analyse de compteurs intelligents - Reconnaissance et segmentation d'objets
Intégrez de nouvelles capacités d'inférence IA dans vos applications pour automatiser les informations analogiques et les transformer en données numériques et analytiques, afin d'améliorer la précision et la fiabilité. Automatisez la lecture des compteurs grâce à la vision par ordinateur pour les secteurs tels que l'énergie, l'industrie manufacturière et tous les secteurs qui utilisent des compteurs analogiques.
Présentation de la solution (2:46)
Cette démonstration présente une mise en œuvre pratique de la reconnaissance et de la segmentation d'objets pour l'analyse des compteurs intelligents.
Mode d'emploi technique (8:50)
Découvrez en détail comment utiliser l'exemple de code et essayez-le vous-même.
Application à tester : Gestion intelligente des files d'attente YOLO* v8 - Reconnaissance et comptage d'objets
Créez des applications d'inférence IA polyvalentes en utilisant l'IA de reconnaissance d'objets, le comptage et la prise de décision. Détectez et comptez le nombre de personnes dans une file d'attente afin de réduire les temps d'attente, d'améliorer la satisfaction client et d'optimiser la gestion du personnel. Gérez les files d'attente à l'aide de la vision par ordinateur dans des secteurs tels que la vente au détail, les soins de santé ou tout autre secteur nécessitant la reconnaissance et le comptage d'objets.
Présentation de la solution (2:40)
Regardez cette démonstration d'une mise en œuvre pratique de la reconnaissance d'objets de YOLO* v8.
Mode d'emploi technique (19:32)
Explorez des exemples de code et apprenez à les tester par vous-même.
Approfondissez vos connaissances sur les outils OpenVINO
Optimisez et déployez des solutions d'inférence IA à l'aide de cette boîte à outils IA open-source.
- Accélérez l'inférence IA et optimisez le déploiement sur les plateformes matérielles courantes en maximisant la puissance de calcul disponible entre les accélérateurs tout en utilisant une API commune.
- Choisissez parmi une large gamme de modèles pré-entraînés qui offrent une flexibilité pour votre cas d'utilisation et votre framework préféré, par exemple TensorFlow* ou PyTorch*.
- Ré-entraînez ou affinez vos modèles en utilisant des techniques de quantification post-entraînement.
Rencontrez les spécialistes de l'inférence chez Intel
Découvrez cette équipe d'experts en IA qui vous guidera dans des cas d'utilisation concrets du kit d'outils OpenVINO™ et des solutions d'inférence IA par deep learning.
Raymond Lo
Titulaire d'un doctorat en ingénierie informatique, entrepreneur en innovation dans le domaine de l'IA, San Jose, États-Unis
Paula Ramos
Titulaire d'un doctorat en ingénierie, spécialiste de la vision par ordinateur, Caroline du Nord, États-Unis
Anisha Udayakumar
Consultante en innovation dans le domaine de l'IA, ingénieure système, Chennai, Inde
Adrian Boguszewski
Ingénieur en informatique, expert en deep learning, Swindon, Angleterre
Zhuo Wu
Titulaire d'un doctorat en électronique, professeure et chercheuse, Shanghai, Chine
Voyez par vous-même : le kit d'outils OpenVINO dans le monde réel
Découvrez comment Intel collabore avec d'autres entreprises pour favoriser la réussite commerciale grâce au kit d'outils OpenVINO.
Megh Computing utilise l'analytique vidéo alimentée par l'IA pour optimiser les opérations.
PreciTaste* utilise l'IA pour prévoir avec précision la production alimentaire de la restauration rapide.
Les compteurs pour drive-in équipés d'une caméra permettent aux restaurants à service rapide d'optimiser la préparation des produits alimentaires.

Inscrivez-vous pour recevoir des informations exclusives, des conseils et communiqués
Faites partie des premiers à être informés des nouveautés avec la distribution Intel® du kit d'outils OpenVINO™. En vous inscrivant, vous recevrez :
• Un accès anticipé aux mises à jour et aux nouveaux produits
• Des invitations exclusives à des webinaires et à des événements
• Des ressources de formation et des tutoriels
• Des annonces de concours
• D'autres informations
Assistance, ressources et questions-réponses
Vous pouvez signaler les problèmes liés aux outils OpenVINO dans le référentiel GitHub. Si vous avez des questions sur les kits de référence pour l'IA à l'Edge, participez à la discussion sur le référentiel pour les notebooks OpenVINO ou sur le forum d'assistance d'Intel.
Intel propose des kits de référence pour l'IA à l'Edge pour des cas d'utilisation spécifiques de l'IA, tels que l'analyse des compteurs intelligents, la détection d'anomalies en temps réel et la gestion intelligente des files d'attente. De nouveaux cas d'utilisation sont ajoutés régulièrement. Tirez parti de la vision par ordinateur en temps réel pour créer des solutions d'inférence IA à l'aide de la reconnaissance d'objets, de la segmentation d'objets et de nouvelles fonctionnalités telles que l'IA générative.
Ces kits utilisent des modèles optimisés pré-entraînés qui accélèrent l'IA sur les plateformes les plus courantes et comprennent une documentation détaillée, des vidéos pratiques, des exemples de code et des référentiels GitHub. Ils vous permettent d'accélérer votre processus de déploiement, d'adoption et de gagner du temps.
La boîte à outils OpenVINO accélère le processus de compression des modèles pour les cas d'utilisation de l'IA, puis leur déploiement sur diverses plateformes matérielles. Cela accélère le développement de solutions d'inférence IA et vous permet de transformer plus efficacement vos idées en applications d'IA réelles.
Oui. La boîte à outils OpenVINO compile les modèles pour les faire fonctionner sur de nombreux appareils différents, ce qui vous permet d’écrire le code une seule fois et de déployer votre modèle sur des CPU, des GPU, des VPU et d’autres accélérateurs
Pour obtenir les meilleures performances possibles, il est important de configurer et d'installer correctement les derniers pilotes de GPU sur votre système. Utilisez le guide Comment installer des pilotes GPU Intel sur Windows* et Ubuntu*.
Remarque Utilisez le guide pour installer les pilotes et configurer votre système avant d'utiliser les outils OpenVINO pour les solutions d'inférence IA basées sur un GPU.
Ce guide a été testé sur les cartes graphiques Intel® Arc™ et le GPU Intel® Data Center Flex Series sur des systèmes équipés d'Ubuntu 22.04 LTS et de Windows 11. Pour utiliser le plug-in GPU du kit d'outils OpenVINO et décharger l'inférence sur les GPU Intel, le pilote graphique Intel® doit être correctement configuré sur votre système.
La nouvelle famille de GPU dédiés d'Intel n'est pas seulement destinée aux jeux vidéo, elle peut également faire fonctionner l'IA à l'Edge ou sur des serveurs.
L'architecture du plug-in de la boîte à outils OpenVINO prend en charge l'optimisation de l'inférence IA sur du matériel tiers ainsi que sur les plateformes Intel. Voir la liste complète des dispositifs pris en charge ici.
Le kit d'outils OpenVINO est optimisé dans une optique de performances. Il exécute des modèles de deep learning à forte intensité de calcul, avec un impact minimal sur la précision. Il dispose de fonctionnalités qui optimisent l'efficacité, comme le plug-in AUTO pour les dispositifs ou la planification des threads sur les processeurs Intel Core de la 12ᵉ génération et supérieur.
Le kit d'outils OpenVINO est parfaitement compatible avec de nombreux frameworks et protocoles normalisés. Le serveur de modèles OpenVINO™ utilise la même architecture et la même API que TensorFlow* Serving et KServe pour rendre le déploiement plus évolutif pour les charges de travail modernes.
Le kit d'outils OpenVINO minimise le temps nécessaire au traitement des données d'entrée pour produire une prédiction en sortie. La prise de décision est plus rapide et les interactions avec le système sont plus efficaces.
Grâce à l'API de conversion de modèle et au NNCF, OpenVINO propose plusieurs techniques d'optimisation pour améliorer les performances et réduire la latence.
Pour en savoir plus sur les différentes options de compression de modèle telle que l'entraînement tenant compte de la quantification, la quantification post-entraînement, consultez le guide d'optimisation de modèle.
Le serveur de modèles OpenVINO, qui fait partie de la boîte à outils OpenVINO, vous permet d'héberger des modèles et de déployer efficacement des applications sur un large éventail de matériel. Vous pouvez intégrer l'accélération de l'inférence IA sans réécrire le code.
- Votre modèle est accessible via des protocoles réseau standard grâce à une API commune, qui est également utilisée par KServe.
- L'inférence IA à distance vous permet de créer des clients légers qui se concentrent sur les appels d'API, ce qui nécessite moins de mises à jour.
- Les applications peuvent être développées et gérées indépendamment du framework, du matériel et de l'infrastructure du modèle.
- Contrôle d'accès au modèle simplifié puisque la topologie et les poids ne sont pas exposés par les applications clientes.
- Cette structure de déploiement permet une mise à l'échelle horizontale et verticale plus efficace de l'inférence IA.
Grâce à un ensemble complet d'outils et de ressources, vous pouvez rationaliser les workflows tout en optimisant l'inférence IA et les performances réelles des modèles d'IA avec OpenVINO.