Explication de la sortie de la démo Human Pose Estimation
A exécuté la démo Human Pose Estimation avec :
python human_pose_estimation.py -m human-pose-estimation-0004.xml -i -at ae -d CPU -r
Ne peut pas s’afficher de plus en plus à la sortie.
Lors de l’utilisation de l’option de ligne de commande -r , la démo imprimez les résultats de détection brute.
Le résultat représente 17 points clés pour chaque personne, suivis de la confiance.
L’impression des résultats d’inférence brute est implémentée par le code suivant dans la ligne 160-164 human_pose_estimation_demo.py :
def print_raw_results(poses, scores):
log.info('Poses:')
for pose, pose_score in zip(poses, scores):
pose_str = ' '.join('({:.2f}, {:.2f}, {:.2f})'.format(p[0], p[1], p[2]) for p in pose)
log.info('{} | {:.2f}'.format(pose_str, pose_score))
Le format des résultats d’inférence brute est le suivant :
- Points clés individuels au format de la batterie (coordonnées X, coordonnées Y, score de confiance commune) de Ligne 131-132 hpe_associative_embedding.py:
# 2 is for x, y and 1 is for joint confidence
self.pose = np.zeros((num_joints, 2 + 1 + tag_size), dtype=np.float32)
- La valeur finale du résultat d’inférence est la valeur moyenne du total du score de confiance des points clés de Ligne 334 hpe_associative_embedding.py:
scores = np.asarray([i[:, 2].mean() for i in ans])
Reportez-vous à la démo Running Human Pose Estimation Python
Reportez-vous à decoder_ae.py pour plus de détails sur la façon de décoder la sortie du modèle pour OpenVINO™ version 2021.2.
Reportez-vous à la classe des modèles pour plus de détails sur la façon de décoder la sortie du modèle pour OpenVINO™ version 2021.3.
Le nombre de résultats de détection brute imprimée dépend du nombre de points clés détectés par le modèle utilisé.
- human-pose-estimation-0001 (18 points clés)
- human-pose-estimation-0005 (17 points clés)
- human-pose-estimation-0006 (17 points clés)
- human-pose-estimation-0007 (17 points clés)
- higher-hrnet-w32-human-pose-estimation (17 points clés)