OpenVINO™ Model Optimizer ne prend pas en charge les modèles TensorFlow* Lite à convertir en IR
Impossible de déterminer si les modèles TensorFlow Lite peuvent être déduits sur Intel® NCS2.
Il n’est autorisé à charger directement le modèle ONNX* ou la représentation intermédiaire (IR) que dans le moteur d’inférence OpenVINO™ (y compris MYRIAD). Attendu que pour Optimiseur de modèle, il ne prend pas en charge le fichier .tflite de conversion en format IR nativement.
En résumé, l’optimiseur de modèle OpenVINO™ ne prend pas en charge la conversion des modèles Tensorflow Lite en IR.