Passer au Contenu principal
Base de connaissances pour l'assistance

Est-il possible de mettre en œuvre OpenVINO™ pipeline d’inférence d’exécution avec une représentation intermédiaire ?

Type de contenu: Information et documentation de produit   |   ID de l'article: 000092935   |   Dernière révision: 28/02/2023

Descriptif

  1. Modèle TensorFlow* converti en IR.
  2. Impossible de déterminer les étapes à suivre pour mettre en œuvre OpenVINO™ pipeline d’inférence d’exécution avec l’IR.

Résolution

  1. Create* OpenVINO™ Runtime Core
    import openvino.runtime as ov
    core = ov.Core()

     
  2. Compiler le modèle
    compiled_model = core.compile_model("model.xml", "AUTO")
     
  3. Créer une demande d’inférarch toujours
    infer_request = compiled_model.create_infer_request()
     
  4. Ensemble Entrées
    # Create tensor from external memory
    input_tensor = ov.Tensor(array=memory, shared_memory=True)
    # Set input tensor for model with one input
    infer_request.set_input_tensor(input_tensor)

     
  5. Commencer Inférence
    infer_request.start_async()
    infer_request.wait()

     
  6. Traiter les résultats d’inférence
    # Get output tensor for model with one output
    output = infer_request.get_output_tensor()
    output_buffer = output.data
    # output_buffer[] - accessing output tensor data

Produits associés

Cet article s'applique aux produits 3.
Logiciels pour processeurs Intel® Xeon Phi™ OpenVINO™ Toolkit Bibliothèques de performances

Avis de non-responsabilité

Le contenu de cette page est une combinaison de traduction humaine et informatique du contenu original en anglais. Ce contenu vous est fourni pour votre commodité et à titre informatif seulement et ne saurait être totalement exact ou complet. En cas de contradiction entre la version anglaise de cette page et la traduction, c'est la version anglaise qui prévaut. Afficher la version anglaise de cette page.