Intel® FPGA AI Suite
Découvrez comment Intel® FPGA AI Suite pouvez ajouter de l’IA FPGA aux systèmes embarqués et aux centres de données.
« La facilité d’utilisation du Intel® FPGA AI Suite et du Distribution Intel® du kit d'outils OpenVINO™ a permis à Stryker* de développer des Intel® FPGA IP optimisées pour l’inférence du deep learning. L’IP d’inférence a été intégrée avec succès à un Intel® FPGA à l’aide du logiciel Intel® Quartus® Prime. Les exemples de conceptions fournies avec la suite ont permis à l’équipe d’évaluer rapidement différents algorithmes pour différentes sources d’images. Intel® FPGA AI Suite et les Intel® Distribution du kit d’outils OpenVINO permettent aux scientifiques des données et aux ingénieurs FPGA de travailler de manière transparente ensemble pour développer une inférence de deep learning optimisée pour les applications médicales. »
- Équipe d’ingénierie Stryker
Aperçu
Intel FPGAs permettre une inférence deep learning en temps réel, à faible latence et à faible consommation, associées aux avantages suivants :
- Flexibilité des E/S
- Reconfiguration
- Facilité d’intégration dans des plateformes personnalisées
- Longue durée
Intel FPGA AI Suite a été développée avec la vision de l’inférence de l’intelligence artificielle (IA) facile à utiliser sur les FPGAs Intel. La suite permet aux concepteurs FPGA, aux ingénieurs de machine learning et aux développeurs de logiciels de créer efficacement FPGA plateformes d’IA optimisées.
Les utilitaires du Intel FPGA AI Suite accélérer le développement de FPGA pour l’inférence de l’IA en utilisant des cadres industriels habituels et populaires tels que TensorFlow* ou PyTorch* et le kit d’outils OpenVINO, tout en tirant parti de flux de développement robustes et éprouvés FPGA avec le logiciel Intel Quartus Prime.
Le flux d’outils Intel FPGA AI Suite fonctionne avec le kit d’outils OpenVINO, un projet open-source visant à optimiser l’inférence sur une variété d’architectures matérielles. Le kit d’outils OpenVINO s’inspire des modèles deep learning de tous les principaux cadres de Deep Learning (tels que TensorFlow, PyTorch, Keras*) et les optimise pour l’inférence sur une variété d’architectures matérielles, notamment divers CPU, CPU+GPU et FPGAs.
Découvrez comment Intel FPGA AI Suite pouvez ajouter de l’IA FPGA aux systèmes embarqués et aux centres de données.
Contacter Intel Sales pour connaître les prix et la disponibilité ›
Caractéristiques clés
Hautes performances
Intel® Agilex™ série M FPGAs peut atteindre une performance théorique maximale de 38 TOPS INT8, ou 3 679 Resnet-50 images par seconde, avec une utilisation de 90 % FPGA.
Intégration facile du système
Prend en charge l’intégration avec des IP personnalisées telles que les ADC/DAC, la vidéo et l’Ethernet pour obtenir la plus petite empreinte et la plus faible latence.
Faible coût total de possession
Réduisez le coût total de possession grâce à une inférence d’IA hautement évolutive, personnalisable et fine en granularité sur un large éventail de performances et de tailles de lot.
Débits simples et standard
Créez et ajoutez l’ip d’inférence IA aux conceptions FPGA actuelles ou nouvelles avec Intel Quartus Prime Software ou Platform Designer.
Prise en charge frontale de l’IA
Utilisez votre produit d’IA favori comme TensorFlow, Caffe, Pytorch, MXNet, Keras et ONNX.
Optimisation OpenVINO
OpenVINO Toolkit optimise les performances et la puissance tout en minimisant l’empreinte logique et mémoire.
FPGA flux de développement de l’inférence de l’IA
Le flux de développement de l’inférence IA est indiqué dans la Figure 1. Le flux combine facilement un flux de travail matériel et logiciel dans un flux de travail générique d’IA de bout en bout. Les étapes sont les suivantes :
1. Optimiseur de modèle dans le kit d’outils OpenVINO crée des fichiers réseau de représentation intermédiaire (.xml) et poids et préjugés des fichiers (.bin).
2. Intel FPGA AI Suite compilateur est utilisé pour :
- Fournissez des mesures estimées de la zone ou des performances pour un fichier d’architecture donné ou produisez un fichier d’architecture optimisé. (L’architecture fait référence à des paramètres IP d’inférence tels que la taille de la batterie PE, les précisions, les fonctions d’activation, les largeurs d’interface, les tailles de fenêtre, etc.)
- Compilez des fichiers réseau dans un fichier .bin avec des partitions réseau pour FPGA et le processeur (ou les deux) ainsi que des poids et des préjugés.
3. Le fichier .bin compilé est importe par l’application d’inférence de l’utilisateur au moment de l’exécution.
- Les interfaces de programmation d’applications d’exécution (API) comprennent l’API du moteur d’inférence (processeur et FPGA de partition d’exécution, inférence de calendrier) et l’IA FPGA (mémoire DDR, FPGA blocs matériels).
- Les modèles de référence démontrent les opérations de base de l’importation .bin et de l’exécution d’inférence sur FPGA avec les processeurs hôtes pris en charge (processeurs x86 et Arm*).
Figure 1 : flux de développement Intel FPGA AI Suite
Notes:
Appareils pris en charge : Intel® Agilex™ FPGA, Intel® Cyclone® FPGA 10 GX, Intel® Arria® 10 FPGA
Fonctions de réseaux et d’activation testées1:
- ResNet-50, MobileNet v1/v2/v3, YOLO v3, TinyYOLO v3, UNET
- ReLU, 2D Conv, BatchEum, Elt Lortre Mvolution, entièrement connecté, serre-serrent, pReLU, SoftMax
Architectures au niveau du système
Intel FPGA AI Suite est flexible et configurable pour un grand nombre de cas d’utilisation au niveau du système. La Figure 2 contient les moyens habituels d’intégrer la FPGA IP de la suite D’IA dans un système. Les cas d’utilisation s’étendent sur différentes verticales, des plateformes embarquées optimisées aux applications équipées de CPU hôtes (processeurs Intel® Core™, processeurs Arm) aux environnements de centres de données équipés de processeurs Intel® Xeon® et également aux applications sans hôte (ou processeurs logiciels tels que les processeurs Nios® V).
Figure 2 : Topologies système Intel FPGA AI Suite typiques
Déchargement du processeur
Accélérateur d’IA
Déchargement multi-fonctions du processeur
Accélérateur d’IA + fonction matérielle supplémentaire
Ingestion / Traitement en ligne + IA
Accélérateur d’IA + Ingestion directe et streaming de données
FPGA SoC embarqué + IA
Accélérateur d’IA + Ingestion directe et streaming de données + Fonction matérielle +
Processeurs Arm, Nios® II ou Nios V embarqués
Vidéos
Présentation de Intel FPGA AI Suite
Regardez cette vidéo pour vous familiariser avec le flux de conception des Intel FPGA AI Suite.
Vidéo de démonstration de l’installation Intel® FPGA AI Suite
Installez Intel FPGA AI Suite facilement, regardez cette vidéo pour une démonstration de l’installation.
Vidéo de démonstration de la compilation Intel® FPGA AI Suite
Regardez une démonstration rapide du Intel FPGA AI Suite compilant un modèle RESNET-50 préformé et les résultats d’inférence de sortie.
Intel FPGA AI Suite est disponible dès aujourd’hui pour la tarification et l’évaluation
Références de conceptions avec des exemples de conception FPGA pré-construits disponibles pour une évaluation initiale sur la carte de développement Terasic DE10-Agilex et le kit de développement SoC Intel Arria 10, et pour le développement de conceptions personnalisées au niveau du système.
Infos sur le produit et ses performances
Le contenu de cette page est une combinaison de traduction humaine et informatique du contenu original en anglais. Ce contenu vous est fourni pour votre commodité et à titre informatif seulement et ne saurait être totalement exact ou complet. En cas de contradiction entre la version anglaise de cette page et la traduction, c'est la version anglaise qui prévaut. Afficher la version anglaise de cette page.