Intel® Distribution de OpenVINO™ boîte à outils

753640
2/6/2025

Présentation

Ce package contient les Intel® Distribution du logiciel OpenVINO™ Toolkit version 2025.0 pour Linux*, Windows* et macOS*.

Téléchargements disponibles

  • Debian Linux*
  • Taille : 31.8 MB
  • SHA256 : 7C821B3DF2EA1A5962D4BE07867DFED226B702AC7F2CFED74D544D9B35DCE818
  • CentOS 7 (1908)*
  • Taille : 56.4 MB
  • SHA256 : C34B7EB9094D618F58B0628B5EC9CA6F1FF49674F4D95FD3772C389B8C037A57
  • Red Hat Enterprise Linux 8*
  • Taille : 61.3 MB
  • SHA256 : CEB682A4DF4B8A86157686902EBC31FC4927849A708B0B8BB111D475C2A9ECCB
  • Ubuntu 20.04 LTS*
  • Taille : 64.5 MB
  • SHA256 : 622D5D1B710862659BA530ECC7AA2B9C6F1D84C12819D208F68178474791A2ED
  • Ubuntu 20.04 LTS*
  • Taille : 35.6 MB
  • SHA256 : D4282BC95F615EFB21646031ACCDEEBC6B4544452996C15DB3A6483FC46AE396
  • Ubuntu 22.04 LTS*
  • Taille : 55.4 MB
  • SHA256 : 09E8127DAF7EF42851F0C724CE93181B9256568BB6FC8E79CC8F33F4AB6D6F3E
  • Taille : 56.5 MB
  • SHA256 : E1681AA6CA02765A5F422EBFF6FD86EBD2C6C0EBD4EFB4E04DDA0EDB79EA30BB
  • macOS*
  • Taille : 46.2 MB
  • SHA256 : 59BA68B752BE3C298DF45AFD55428A872B39C35813A3C53697CF49591A843D2C
  • macOS*
  • Taille : 36.4 MB
  • SHA256 : 1628F809540D9A2AB22DFB48B2EA815C75E49EF9AE436AB29412F868886F05F5
  • Windows 11*, Windows 10*
  • Taille : 117.6 MB
  • SHA256 : B6D96E6ED184A499C054C07BE8619946B4F851F60BF725077E9683FE14719E2B

Description détaillée

Quoi de neuf

  • Plus de couverture GenAI et d’intégrations de framework pour minimiser les modifications de code.
    • Nouveaux modèles pris en charge : Qwen 2.5, Deepseek-R1-Distill-Llama-8B, DeepSeek-R1-Distill-Qwen-7B et DeepSeek-R1-Distill-Qwen-1.5B, FLUX.1 Schnell et FLUX.1 Dev.
    • Modèle Whisper : performances améliorées sur les processeurs, les GPU intégrés et les GPU dédiés avec l’API GenAI.
    • Aperçu : Présentation du support NPU pour torch.compile, donnant aux développeurs la possibilité d’utiliser le backend OpenVINO pour exécuter l’API PyTorch sur les NPU. 300+ modèles de deep learning activés à partir des référentiels TorchVision, Timm et TorchBench.
  • Prise en charge plus large du modèle LLM (Large Language Model) et davantage de techniques de compression de modèle.
    • Aperçu : L’ajout de la recherche d’invites à l’API GenAI améliore la latence du 2e jeton pour les LLM en utilisant efficacement des invites prédéfinies qui correspondent au cas d’utilisation prévu.
    • Aperçu : L’API GenAI offre désormais une fonctionnalité d’inpainting d’image à image. Cette fonction permet aux modèles de générer un contenu réaliste en inpeignant les modifications spécifiées et en les intégrant de manière transparente à l’image originale.
    • La compression asymétrique du cache KV est désormais activée pour INT8 sur les processeurs, ce qui entraîne une consommation de mémoire réduite et une amélioration de la latence du 2e jeton, en particulier lors de longues invites nécessitant une mémoire importante. L’option doit être explicitement spécifiée par l’utilisateur.
  • Plus de portabilité et de performances pour exécuter l’IA à la périphérie, dans le cloud ou localement.
    • Prise en charge des derniers processeurs Intel® Core™ Ultra série 200H (ancien nom de code Arrow Lake-H)
    • L’intégration du backend OpenVINO™ au serveur d’inférence Triton permet aux développeurs d’utiliser le serveur Triton pour améliorer les performances de service de modèle lors du déploiement sur des processeurs Intel.
    • Aperçu : Une nouvelle intégration OpenVINO™ backend permet aux développeurs de tirer parti des optimisations de performances OpenVINO directement dans les flux de travail Keras 3 pour une inférence IA plus rapide sur les processeurs, les GPU intégrés, les GPU discrets et les NPU. Cette fonctionnalité est disponible avec la dernière version de Keras 3.8.
    • Le serveur OpenVINO Model Server prend désormais en charge les déploiements Windows Server natifs, ce qui permet aux développeurs de tirer parti de meilleures performances en éliminant la surcharge des conteneurs et en simplifiant le déploiement du GPU.

Maintenant obsolète

  • Les anciens préfixes l_, w_ et m_ ont été supprimés des noms d’archives OpenVINO.
  • L’espace de noms d’exécution pour l’API Python a été marqué comme obsolète et désigné pour être supprimé pour 2026.0. La nouvelle structure de l’espace de noms a été livrée et la migration est immédiatement possible. Les détails seront communiqués par le biais d’avertissements et de documentation.
  • La méthode NNCF create_compressed_model() est déconseillée. La méthode nncf.quantize() est maintenant recommandée pour l’apprentissage Quantization-Aware des modèles PyTorch et TensorFlow.

Consignes d’installation

Vous pouvez choisir comment installer OpenVINO™ Runtime en fonction de votre système d’exploitation :

Ce qui est inclus dans le package de téléchargement

  • OpenVINO™ Moteur d’exécution/d’inférence pour les API C/C++ et Python

Liens utiles

NOTE: Liens ouverts dans une nouvelle fenêtre.

Ce téléchargement est également valide pour le ou les produits répertoriés ci-dessous.

Le contenu de cette page est une combinaison de traduction humaine et informatique du contenu original en anglais. Ce contenu vous est fourni pour votre commodité et à titre informatif seulement et ne saurait être totalement exact ou complet. En cas de contradiction entre la version anglaise de cette page et la traduction, c'est la version anglaise qui prévaut. Afficher la version anglaise de cette page.