ID de l'article: 000093870 Type de contenu: Dépannage Dernière révision: 13/11/2023

Impossible d’exécuter l’inférence avec le modèle de représentation intermédiaire (IR) YOLOv5s converti

BUILT IN - ARTICLE INTRO SECOND COMPONENT
En bref

Étapes à suivre pour convertir et exécuter un modèle YOLOv5s avec OpenVINO™ en utilisant Stick de calcul neuronal Intel® 2 (Intel® NCS2) sur Raspberry* Pi.

Descriptif

Impossible de déterminer comment exécuter le modèle YOLOv5s et YOLOv7-tiny sur un Raspberry* Pi 4B avec Intel® NCS2.

Résolution
  1. Clone Référentiel GitHub* YOLOv5 :
    git clone https://github.com/ultralytics/yolov5
  2. Prérequis d’installation :
    cd yolov5
    pip install -r requirements.txt
  3. Télécharger Modèle PyTorch YOLOv5s de Points de contrôle préentraînés.
  4. Convertir Modèle PyTorch YOLOv5s au format ONNX* :
    python export.py --weights yolov5s.pt --img 640 --batch 1 --include onnx
  5. Convertissez le modèle ONNX* YOLOv5s du format officiel au format Représentation intermédiaire (IR) en utilisant le package pip openvino-dev[onnx] avec la commande suivante :
    mo --input_model yolov5s.onnx --output <output_nodes> --data_type FP16 --scale_values=images[255] --input_shape=[1,3,640,640] --input=images
  6. Exécutez la démo Python de détection d’objets à l’aide du modèle IR YOLOv5s avec la commande suivante :
    python3 object_detection_demo.py -at yolov4 -d MYRIAD -m yolov5s.xml -i <path_to_input>

Produits associés

Cet article concerne 1 produits

Le contenu de cette page est une combinaison de traduction humaine et informatique du contenu original en anglais. Ce contenu vous est fourni pour votre commodité et à titre informatif seulement et ne saurait être totalement exact ou complet. En cas de contradiction entre la version anglaise de cette page et la traduction, c'est la version anglaise qui prévaut. Afficher la version anglaise de cette page.