ID de l'article: 000095064 Type de contenu: Information et documentation de produit Dernière révision: 13/06/2023

Pourquoi le format de modèle quantisé est-il resté FP32 au lieu d’INT8 ?

BUILT IN - ARTICLE INTRO SECOND COMPONENT
En bref

Opération de quantification dans OpenVINO™ kit d’outils.

Descriptif
  • Modèle ONNX quantisé au format de précision FP32.
  • Exécutez la fonction compress_model_weights pour réduire la taille du fichier bin après avoir effectué une quantification post-apprentissage.
  • A compilé le modèle et a remarqué que la sortie du modèle est en FP32 au lieu d’INT8.
Résolution

Au cours de la quantification, seules les opérations nécessaires en vue des performances ont été quantisées. Les autres opérations resteront en FP32 dans la sortie.

Informations complémentaires

Reportez-vous à OpenVINO™ Transformation de faible précision.

Produits associés

Cet article concerne 1 produits

Le contenu de cette page est une combinaison de traduction humaine et informatique du contenu original en anglais. Ce contenu vous est fourni pour votre commodité et à titre informatif seulement et ne saurait être totalement exact ou complet. En cas de contradiction entre la version anglaise de cette page et la traduction, c'est la version anglaise qui prévaut. Afficher la version anglaise de cette page.