Passer au Contenu principal
Base de connaissances pour l'assistance

Pourquoi choisir le modèle FP16 pour la compression de poids en utilisant Optimum Intel / Neural Network Compression Framework (NNCF) ?

Type de contenu: Dépannage   |   ID de l'article: 000098174   |   Dernière révision: 21/03/2024

Descriptif

Impossible de déterminer la raison du choix du modèle FP16 en compression de poids à l’aide d’Optimum Intel / NNCF.

Résolution

La demi-précision FP16, qui réduit de moitié la taille du modèle par rapport à la précision FP32, peut obtenir un résultat d’inférence presque identique tout en utilisant la moitié des ressources GPU.

Produits associés

Cet article s'applique aux produits 3.
Logiciels pour processeurs Intel® Xeon Phi™ OpenVINO™ Toolkit Bibliothèques de performances

Avis de non-responsabilité

Le contenu de cette page est une combinaison de traduction humaine et informatique du contenu original en anglais. Ce contenu vous est fourni pour votre commodité et à titre informatif seulement et ne saurait être totalement exact ou complet. En cas de contradiction entre la version anglaise de cette page et la traduction, c'est la version anglaise qui prévaut. Afficher la version anglaise de cette page.