Intel® FPGA AI Suite
En savoir plus sur comment Intel® FPGA AI Suite peut ajouter l'IA FPGA aux systèmes embarqués et aux centres de données.
Présentation
Les FPGA Intel permettent une inférence du Deep Learning en temps réel, à faible latence et à faible consommation d'énergie, avec les avantages suivants :
- Flexibilité des E/S
- Reconfiguration
- Facilité d'intégration dans les plateformes personnalisées
- Longue durée de vie
Intel FPGA AI Suite a été développé dans le but de faciliter l'utilisation de l'inférence de l'intelligence artificielle (IA) sur les FPGA Intel. La suite permet aux concepteurs de FPGA, aux ingénieurs de Machine Learning et aux développeurs de logiciels de créer efficacement des plateformes d'IA FPGA optimisées.
Les utilitaires d'Intel FPGA AI Suite accélèrent le développement des FPGA pour l'inférence de l'IA en utilisant des infrastructures industrielles familières et populaires telles que TensorFlow ou PyTorch et le kit d'outils OpenVINO, tout en tirant parti de flux de développement FPGA robustes et éprouvés avec le logiciel Intel Quartus Prime.
Le flux d'outils Intel FPGA AI Suite fonctionne avec le kit d'outils OpenVINO, un projet Open Source visant à optimiser l'inférence sur une variété d'architectures matérielles. Le kit d'outils OpenVINO prend des modèles de Deep Learning de toutes les principales infrastructures de Deep Learning (telles que TensorFlow, PyTorch, Keras) et les optimise pour l'inférence sur une variété d'architectures matérielles, y compris divers processeurs, CPU+GPU et FPGA.
En savoir plus sur comment Intel® FPGA AI Suite peut ajouter l'IA FPGA aux systèmes embarqués et aux centres de données. Contactez le service commercial Intel pour connaître les tarifs et la disponibilité ›
Lancez-vous
Pourquoi les FPGA sont particulièrement adaptés à la mise en œuvre de l'IA
Découvrez comment les FPGA et SoC Intel® avec Intel® FPGA AI Suite et le kit d'outils OpenVINO pilotent les applications d'IA/Machine Learning embarquées/de périphérie dans ce livre blanc.
Lire le livre blanc
Témoignage de client
« La facilité d'utilisation d'Intel® FPGA AI Suite et de la distribution Intel® du kit d'outils OpenVINO™ ont permis à Stryker de développer des Intel® FPGA IP optimisées pour l'inférence du Deep Learning. L'IP d'inférence a été intégrée avec succès dans un Intel® FPGA à l'aide du logiciel Intel® Quartus® Prime. Les exemples de conception fournis avec la suite ont permis à l'équipe d'évaluer rapidement différents algorithmes pour différentes sources d'images. Intel® FPGA AI Suite et la distribution Intel® du kit d'outils OpenVINO permettent aux scientifiques des données et aux ingénieurs FPGA de travailler ensemble de manière transparente pour développer une inférence de Deep Learning optimisée pour les applications médicales. » - Équipe d'ingénierie Stryker
Points forts
Hautes performances
Le FPGA Intel Agilex® 7 série M peut atteindre des performances théoriques maximales de 38 TOPS INT8, ou 3 679 images Resnet-50 par seconde à 90 % d'utilisation du FPGA.
Intégration système facile
Prise en charge de l'intégration d'IP personnalisées telles que les ADC/DAC, la vidéo et l'Ethernet afin d'obtenir un encombrement minimal et une latence réduite.
Faible coût de revient total
Minimisez le coût total de possession grâce à une inférence de l'IA hautement évolutive, personnalisable et de granularité fine, dans une large gamme de performances et de tailles de lots.
Flux simples et standards
Créez et ajoutez des IP d'inférence de l'IA aux designs de FPGA actuels ou nouveaux avec le logiciel Intel Quartus Prime ou le Platform Designer.
Prise en charge préliminaire de l'IA
Utilisez votre interface d'IA préférée telle que TensorFlow, Caffe, Pytorch, MXNet, Keras et ONNX.
Optimisation OpenVINO
Le kit d'outils OpenVINO optimise les performances et la puissance tout en minimisant l'empreinte logique et mémoire.
Flux de développement d'inférence de l'IA FPGA
Le flux de développement d'inférence de l'IA est illustré sur la Figure 1. Le flux combine de manière transparente un flux de travail matériel et logiciel dans un flux de travail générique d'IA de bout en bout. Les étapes sont les suivantes :
1. L'optimiseur de modèle dans le kit d'outils OpenVINO crée des fichiers réseau de représentation intermédiaire (.xml) et des fichiers de poids et de biais (.bin).
2. Le compilateur Intel FPGA AI Suite est utilisé pour :
- Fournir une estimation de la surface ou des mesures de performance pour un fichier d'architecture donné ou produire un fichier d'architecture optimisé. (L'architecture fait référence aux paramètres de l'IP d'inférence tels que la taille du réseau PE, les précisions, les fonctions d'activation, la largeur des interfaces, la taille des fenêtres, etc.)
- Compilez les fichiers de réseau dans un fichier .bin avec des partitions de réseau pour le FPGA et processeur (ou les deux) ainsi que des poids et des biais.
3. Le fichier .bin compilé est importé par l'application d'inférence de l'utilisateur au moment de l'exécution.
- Les interfaces de programmation d'applications (API) d'exécution comprennent l'API du moteur d'inférence (partition d'exécution du processeur et du FPGA, programmation de l'inférence) et l'API du FPGA (mémoire DDR, blocs matériels du FPGA).
- Les modèles de référence démontrent les opérations de base de l'importation de .bin et de l'exécution d'inférence sur le FPGA avec les processeurs hôtes (x86 et Arm).
Figure 1 : Flux de développement d'Intel FPGA AI Suite
Remarques :
Appareils pris en charge : FPGA Intel Agilex® 7, FPGA Intel® Cyclone® 10 GX, FPGA Intel® Arria® 10
Réseaux, couches et fonctions d'activation testés1 :
- ResNet-50, MobileNet v1/v2/v3, YOLO v3, TinyYOLO v3, UNET, i3d
- 2D Conv, 3D Conv, Fully Connected, Softmax, BatchNorm, EltWise Mult, Clamp
- ReLU, PReLU
Architectures au niveau du système
Intel FPGA AI Suite est flexible et configurable pour une variété de cas d'utilisation au niveau du système. La Figure 2 présente les différentes façons d'intégrer la FPGA AI Suite IP dans un système. Les cas d'utilisation couvrent différents secteurs verticaux, des plateformes embarquées optimisées allant des applications avec des processeurs hôtes (processeurs Intel® Core™ et Arm) aux environnements de centre de données avec des processeurs Intel® Xeon®, ainsi qu'aux applications sans hôte (ou processeurs logiciels tels que les processeurs Nios® V).
Figure 2 : Topologies typiques du système Intel FPGA AI Suite
Déchargement du processeur
Accélérateur d'IA
Déchargement du processeur multifonction
Accélérateur d'IA + Fonction matérielle supplémentaire
Ingestion / Traitement en ligne + IA
Accélérateur d'IA + Ingestion directe et streaming de données
FPGA SoC embarqué + IA
Accélérateur d'IA + Ingestion directe et streaming de données + Fonction matérielle +
Processeurs Arm ou Nios® II ou Nios V embarqués
Démos vidéo
Présentation d'Intel FPGA AI Suite
Regardez cette vidéo pour vous familiariser avec le flux de design d'Intel FPGA AI Suite.
Vidéo de démonstration de l'installation d'Intel® FPGA AI Suite
L'installation d'Intel FPGA AI Suite est facile. Regardez cette vidéo pour une démonstration de l'installation.
Vidéo de démonstration de la compilation Intel® FPGA AI Suite
Regardez une démonstration rapide d'Intel FPGA AI Suite compilant un modèle pré-entraîné RESNET-50 et les résultats de l'inférence de sortie.
Vidéo de démonstration de l'installation et du montage de la carte FPGA Intel Agilex®
Ce tutoriel rapide vous explique comment configurer et programmer facilement un FPGA Intel Agilex® 7 pour utiliser Intel FPGA AI Suite.
Exemple de design PCIe d'Intel® FPGA AI Suite
Cette vidéo présente certaines des capacités d'Intel FPGA AI Suite.