Convertir des modèles d’API de détection d’objets TensorFlow pour l’inférence sur le Stick de calcul neuronal Intel® 2 (Intel® NCS 2)

Documentation

Dépannage

000055228

06/06/2023

Suivez le Guide de démarrage de l’Intel® NCS 2 pour installer le kit d’outils OpenVINO™ et configurer votre Intel® NCS 2.

Note Le Guide de démarrage et cet article s’appliquent également aux utilisateurs disposant du Intel® Movidius™ stick de calcul neuronal d’origine.

Le script mo_tf.py se trouve dans le répertoire ~/intel/openvino/deployment_tools/model_optimizer . Les paramètres suivants doivent être spécifiés lors de la conversion de votre modèle en représentation intermédiaire pour l’inférence avec Intel® NCS 2.

--input_model <path_to_frozen.pb>

--tensorflow_use_custom_operations_config <path_to_subgraph_replacement_configuration_file.json>

  • Les fichiers de configuration se trouvent dans le répertoire ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf . Choisissez un fichier de configuration qui correspond à la topologie de votre modèle. Découvrez Comment convertir un modèle pour obtenir une liste de fichiers de configuration.

--tensorflow_object_detection_api_pipeline_config <path_to_pipeline.config>

--reverse_input_channels

  • Ce paramètre est nécessaire si vous utilisez le modèle d’API de détection d’objet TensorFlow converti avec les applications d’échantillons de moteur d’inférence.

--data_type FP16

  • Spécifie un format en virgule flottante en demi-précision pour fonctionner sur l’Intel® NCS 2

Exemple de commande d’optimiseur de modèle :

python3 ~/intel/openvino/deployment_tools/model_optimizer/mo_tf.py --input_model frozen_model.pb --tensorflow_use_custom_operations_config ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf/ssd_v2_support.json --tensorflow_object_detection_api_pipeline_config pipeline.config --reverse_input_channels --data_type FP16

Vous trouverez des informations supplémentaires sur l’optimiseur de modèle dans la documentation du kit d’outils OpenVINO™.