La quantité de machine learning et de deep learning que vous pouvez obtenir de vos données dépend des cas d'emploi impliqués, ainsi que du goût de votre entreprise pour l'expérimentation.
Néanmoins, alors que différentes entreprises se trouvent à des stades différents de leur projet d'intelligence artificielle (IA), les risques sont moindres si vous vous lancez avec votre infrastructure existante. Pour vous aider, Intel a optimisé plusieurs frameworks de deep learning populaires (tels que TensorFlow* et Theano*) pour qu'ils fonctionnent sur l'architecture Intel®.
Intel a en outre créé BigDL pour amener le deep learning au Big Data. Cette bibliothèque de deep learning distribuée pour Apache Spark* (bibliothèque DL pour Apache Spark*) peut être exécutée directement sur des clusters Spark ou Apache Hadoop* existants et permet à vos équipes de développement d'écrire des applications de deep learning comme des programmes Scala ou Python.
BigDL utilise la bibliothèque Intel® Math Kernel Library (Intel® MKL) et la programmation multithread dans chaque tâche Spark. Cela lui permet d'atteindre des performances élevées, améliorant les performances de deep learning par rapport aux frameworks open source prêts à l'emploi Torch* ou TensorFlow sur un processeur Intel® Xeon® mono-nœud.
Tenter des expériences avec l'IA est ainsi moins risqué, car les entreprises peuvent se servir de leur infrastructure de datacenter existante pour commencer.
Trois cas d'emploi de l'IA susceptibles d'avoir un impact dans quasiment tous les secteurs
Intel a identifié trois domaines dans lesquels les entreprises testent l'IA sur leur infrastructure de datacenter actuelle : la reconnaissance d'images, le traitement du langage naturel (TLN) et la maintenance prédictive. Pour la suite, lorsque le moment sera venu de faire évoluer ces solutions, l'exploitation de frameworks open source sur votre architecture de datacenter existante pourra faire la différence en simplifiant l'adoption de l'IA dans toute l'entreprise.
1) Reconnaissance d'images
Aujourd'hui, les applications de reconnaissance d'images sont déployées pour le contrôle qualité (identification de défauts dans les produits), la sécurité (scanner de visages et de plaques d'immatriculation) et dans le secteur de la santé (identification de tumeurs).
Toutes les entreprises se retrouvent face au même défi : disposer de suffisamment de données pour entraîner les algorithmes de classification et de reconnaissance des images. Le pré-traitement des images peut représenter plus de la moitié du temps nécessaire à la création de la solution. Pour surmonter cette difficulté, les processeurs Intel® Xeon® prennent en charge les applications d'enrichissement de données. Comme ces applications font pivoter les images, les mettent à l'échelle et ajustent les couleurs, il faut moins d'images pour entraîner efficacement les algorithmes de reconnaissance d'images (selon le cas d'emploi).
Grâce à leur efficacité énergétique et à leur bande passante mémoire élevée (jusqu'à 100 Gbit/s), ces processeurs excellent dans le traitement des charges de travail d'enrichissement de données. Cela est particulièrement vrai pour la famille de processeurs Intel® Xeon® Scalable, boostée par le jeu d'instructions Intel® Advanced Vector Extensions 512 (Intel® AVX-512).
Grâce à leur efficacité énergétique et à leur bande passante mémoire élevée (jusqu'à 100 Gbit/s), ces processeurs excellent dans le traitement des charges de travail d'enrichissement de données.
2) Traitement du langage naturel
Les assistants virtuels activés par la voix ne se contentent pas de traiter les demandes avec précision. Ils comprennent la nature de ces demandes pour continuer à s'améliorer eux-mêmes. De la même façon, l'expérience et la satisfaction des clients sont transformées par des systèmes capables de traiter les enregistrements des centres d'appels ou les formulaires manuscrits, ce qui représente un trésor d'informations précédemment cachées pouvant servir
Le TLN emploie une technique appelée réseau neuronal récurrent (RNN, Recurrent Neural Network) et longue mémoire à court terme (LSTM, Long Short-Term Memory), Pour le traitement des boucles et dépendances qui caractérisent ces opérations, le jeu d'instructions Intel® Advanced Vector Extensions 512 (Intel® AVX-512) prend également tout son sens.
3) Maintenance prédictive
La maintenance prédictive diffère de la reconnaissance d'images et du TLN, car elle se fonde généralement sur un débit de données nettement inférieur, les informations capturées par les capteurs surveillant les conditions à la périphérie. Dans l'idéal, il faudrait aussi autant de ressources de calcul que possible à la périphérie, avant de revenir dans le Cloud pour l'analyse ou la prise de décision. La clé Intel® Movidius™ Neural Compute Stick équipée d'un VPU convient parfaitement au développement accéléré du deep learning à la périphérie.
Vidéo : L'intelligence artificielle transforme la façon dont les entreprises utilisent de plus en plus la maintenance prédictive pour gérer l'infrastructure essentielle.
Lancez-vous dans l'IA sans plus attendre
Les performances d'une solution d'IA sont déterminées par une combinaison optimale de ressources de calcul, de logiciels et de bande passante mémoire des processeurs.