ID de l'article: 000093057 Type de contenu: Information et documentation de produit Dernière révision: 20/12/2022

Est-il possible d’exécuter des modèles Lite TensorFlow* avec des Stick de calcul neuronal Intel® 2 (Intel® NCS2) ?

BUILT IN - ARTICLE INTRO SECOND COMPONENT
En bref

OpenVINO™ Model Optimizer ne prend pas en charge les modèles TensorFlow* Lite à convertir en IR

Descriptif

Impossible de déterminer si les modèles TensorFlow Lite peuvent être déduits sur Intel® NCS2.

Résolution

Il n’est autorisé à charger directement le modèle ONNX* ou la représentation intermédiaire (IR) que dans le moteur d’inférence OpenVINO™ (y compris MYRIAD). Attendu que pour Optimiseur de modèle, il ne prend pas en charge le fichier .tflite de conversion en format IR nativement.

En résumé, l’optimiseur de modèle OpenVINO™ ne prend pas en charge la conversion des modèles Tensorflow Lite en IR.

Produits associés

Cet article concerne 1 produits

Le contenu de cette page est une combinaison de traduction humaine et informatique du contenu original en anglais. Ce contenu vous est fourni pour votre commodité et à titre informatif seulement et ne saurait être totalement exact ou complet. En cas de contradiction entre la version anglaise de cette page et la traduction, c'est la version anglaise qui prévaut. Afficher la version anglaise de cette page.