Étapes à suivre pour convertir et exécuter un modèle YOLOv5s avec OpenVINO™ en utilisant Stick de calcul neuronal Intel® 2 (Intel® NCS2) sur Raspberry* Pi.
Impossible de déterminer comment exécuter le modèle YOLOv5s et YOLOv7-tiny sur un Raspberry* Pi 4B avec Intel® NCS2.
- Clone Référentiel GitHub* YOLOv5 :
git clone https://github.com/ultralytics/yolov5 - Prérequis d’installation :
cd yolov5
pip install -r requirements.txt - Télécharger Modèle PyTorch YOLOv5s de Points de contrôle préentraînés.
- Convertir Modèle PyTorch YOLOv5s au format ONNX* :
python export.py --weights yolov5s.pt --img 640 --batch 1 --include onnx - Convertissez le modèle ONNX* YOLOv5s du format officiel au format Représentation intermédiaire (IR) en utilisant le package pip openvino-dev[onnx] avec la commande suivante :
mo --input_model yolov5s.onnx --output <output_nodes> --data_type FP16 --scale_values=images[255] --input_shape=[1,3,640,640] --input=images - Exécutez la démo Python de détection d’objets à l’aide du modèle IR YOLOv5s avec la commande suivante :
python3 object_detection_demo.py -at yolov4 -d MYRIAD -m yolov5s.xml -i <path_to_input>