Réseaux neuronaux quantifiés pour l'inférence FPGA

La faible quantification de précision pour les réseaux neuronaux prend en charge les spécifications des applications d’IA en offrant un débit supérieur pour la même empreinte ou en réduisant l’utilisation des ressources. La virgule flottante de bloc (BFP) est particulièrement utile dans ce scénario en raison de sa plage dynamique élevée qui permet une précision inférieure tout en maintenant la précision. Toute baisse de précision peut être récupérée en se réentraînant à l’aide de notre logiciel open source.