Optimisation des modèles de réseau neuronal pour l’exécution sur le moteur d’inférence.
Le modèle ONNX* peut être converti en format IR à l’aide de l’outil Optimiseur de modèle. Impossible de valider s’il existe un moyen de convertir le format IR au format de fichier ONNX*.
Le flux de travail OpenVINO™ ne prend pas en charge la conversion d’un format IR vers ONNX* ou un autre format de fichier. L’optimiseur de modèle charge un modèle en mémoire, le lit, construit la représentation interne du modèle, l’optimise et produit le format IR, qui est le seul format accepté par le moteur d’inférence.