Intel® Tiber™ Secure Federated AI
Protéger les données sensibles et la propriété intellectuelle tout en améliorant la précision des modèles.
Maintenant en version bêta - Un service d'apprentissage fédéré clé en main pour la formation de modèles d'IA sur des données privées
Les constructeurs ont besoin d'ensembles de données diversifiés et réels pour créer des modèles d'IA robustes et généralisables, mais les réglementations en matière de confidentialité compliquent l'obtention d'ensembles de données basés sur des données privées et sensibles. L'apprentissage fédéré permet de résoudre ce problème, mais son architecture peut être difficile à adapter, gérer, exploiter et déployer.
Ces défis sont la raison pour laquelle Intel a développé Intel Tiber Secure Federated AI, un service clé en main conçu pour former en toute sécurité des modèles d'IA sur des données privées à l'aide de l'apprentissage fédéré.
Se lancer
Protéger les données sensibles et la propriété intellectuelle tout en améliorant la précision des modèles.
Services de confiance Intel® Tiber™
En savoir plus sur le portefeuille complet.
Contacter un consultant
Entamez une conversation avec un représentant d'Intel pour discuter du meilleur déploiement pour vos besoins uniques.
Avantages du produit
Intel Tiber Secure Federated AI utilise des techniques de protection matérielle, de cryptographie et d'algorithmes pour garantir un haut niveau de sécurité des modèles et des données. En fournissant une mise en œuvre clé en main d'OpenFL, le service offre plusieurs avantages clés à nos clients.
Sécurité et confidentialité améliorées
Met en œuvre des mesures de sécurité Zero-Trust pour protéger les données sensibles et modéliser la propriété intellectuelle.
Amélioration de la précision des modèles
Formez vos produits d'IA sur un ensemble de données plus vaste et plus diversifié afin d'améliorer la qualité et la généralisabilité.
Efficacité opérationnelle
Contrôlez les coûts en réduisant les efforts de duplication et de rédaction des données.
Conformité réglementaire
Appliquez un contrôle d'accès pour savoir qui utilise vos données et comment elles sont utilisées.
S'appuyer sur les fondations d'OpenFL
Intel Tiber Secure Federated AI est construit sur OpenFL, un cadre d'apprentissage fédéré open source.
Au lieu d'envoyer des données à un serveur central, l'apprentissage fédéré permet de former des modèles localement sur chaque périphérique, seules les mises à jour des modèles étant partagées et agrégées pour améliorer le modèle global. Cela permet de préserver la confidentialité et la sécurité des données, de respecter les exigences en matière de souveraineté des données et de protéger la propriété intellectuelle.
OpenFL a été largement utilisé dans de nombreux secteurs. Il s'agit du seul cadre d'apprentissage fédéré dont l'utilisation est approuvée sur la Station spatiale internationale.
Cas d'utilisation
Recherche médicale collaborative
Les prestataires de soins de santé, les hôpitaux, les cliniques et les entreprises de recherche médicale ont utilisé des modèles d'IA et de Machine Learning pour analyser des millions d'ensembles de données de patients afin de mieux comprendre, prédire et prévenir divers types de maladies et d'affections.
Intel Tiber Secure Federated AI peut être utilisé pour former des modèles d'IA/ML, ce qui permet à plusieurs parties d'apporter leur contribution au modèle en apportant l'algorithme aux données. Les résultats cliniques s'en trouvent améliorés, car les modèles d'IA sont plus robustes et généralisables, tandis que les hôpitaux et les cliniques conservent le contrôle des données sensibles des patients.
Découverte précoce de médicaments
La découverte et le développement de nouvelles thérapies sont des processus gourmands en ressources qui nécessitent une expertise spécialisée dans le domaine. Les modèles génératifs de Machine Learning sont devenus des outils puissants pour la découverte de médicaments, mais leurs performances et leur généralisabilité dépendent fortement de données qui sont souvent cloisonnées dans différents instituts de recherche et entreprises.
La combinaison de ces données pourrait permettre d'obtenir une distribution plus complète et plus représentative, conduisant à un modèle plus robuste. Cependant, cela n'est pas possible en raison de problèmes de confidentialité et d'autres préoccupations juridiques, de la pression concurrentielle et de contraintes techniques.
Intel Tiber Secure Federated AI peut être utilisé pour former ces modèles sans combiner les ensembles de données. Cela permet aux entreprises de collaborer en toute sécurité sur la formation aux modèles tout en gérant les préoccupations relatives à la confidentialité des données.
Détection de fraudes
L'IA et le Machine Learning sont de plus en plus utilisés pour détecter les fraudes en temps réel, mais de nombreuses petites et moyennes banques ne disposent pas du volume de données de transaction nécessaire pour former un modèle de détection robuste. Plusieurs banques pourraient mettre en commun leurs données sur la fraude, mais ne peuvent le faire en raison de préoccupations réglementaires.
Intel Tiber Secure Federated AI peut être utilisé pour former en toute sécurité des modèles de détection des fraudes dans plusieurs banques sans déplacer de données. Cette méthode permet de réduire les pertes grâce à une détection plus précise des fraudes.
Ressources complémentaires
FAQ
Foire aux questions
Intel® Tiber™ Secure Federated AI est un service clé en main conçu pour former en toute sécurité des modèles d'IA sur des données privées à l'aide de l'apprentissage fédéré. Il permet de garantir que les données restent toujours sous la garde de leur propriétaire, quel que soit l'endroit où elles sont stockées : sur site, dans un Cloud public ou dans un Cloud privé. Le service utilise une protection matérielle, des méthodes cryptographiques et des techniques algorithmiques pour garantir un niveau élevé de confidentialité et de sécurité des modèles et des données.
L'apprentissage fédéré (FL) est une technique de Machine Learning qui permet de former des modèles d'IA sur plusieurs appareils ou serveurs décentralisés contenant des échantillons de données locales, sans les déplacer. Au lieu d'envoyer des données à un serveur central, l'apprentissage fédéré forme le modèle localement sur chaque périphérique, seules les mises à jour des modèles étant partagées et agrégées pour améliorer le modèle global. Cette méthode préserve de plus en plus la confidentialité et la sécurité des données, garantit le respect des lois sur la souveraineté des données et offre une meilleure protection de la propriété intellectuelle.
Intel Tiber Secure Federated AI est basé sur OpenFL, un cadre d'apprentissage fédéré open source développé par Intel dans le cadre du projet LF AI and Data de la Linux Foundation. OpenFL a été largement utilisé dans des secteurs tels que l'assurance, le secteur pharmaceutique et les soins de santé. Il s'agit du seul cadre d'apprentissage fédéré dont l'utilisation est approuvée sur la Station spatiale internationale.
En fournissant une mise en œuvre clé en main d'OpenFL, Intel Tiber Secure Federated AI offre deux avantages clés à nos clients :
Configuration simplifiée : fournit un processus de configuration ergonomique qui réduit la complexité et le temps requis pour établir des environnements d'apprentissage fédérés.
Fonctionnalités de sécurité améliorées : met en œuvre des mesures de sécurité Zero-Trust conçues pour protéger les données sensibles et modéliser la propriété intellectuelle.
Les constructeurs de modèles ont besoin d'ensembles de données diversifiés et réels pour créer des modèles d'IA robustes et généralisables. Intel Tiber Secure Federated AI est conçu pour améliorer le développement de modèles grâce à des techniques sécurisées et préservant la confidentialité, permettant aux organisations de former des modèles de manière collaborative sur des données distribuées.
Intel Tiber Secure Federated AI favorise la collaboration en matière de données en permettant aux institutions de former des modèles d'IA à l'aide de données décentralisées tout en les protégeant et en les maintenant privées. Le service utilise une protection matérielle (notamment l'informatique confidentielle et l'attestation du matériel et de charge de travail), des méthodes cryptographiques et des techniques algorithmiques conçues pour garantir un niveau élevé de confidentialité et de sécurité des modèles et des données.
Vos données sont stockées localement sur chaque site de données ou institution dans un système d'IA fédéré, où les propriétaires de données conservent la pleine garde de leurs ensembles de données sensibles sans avoir besoin de les centraliser. Cette approche décentralisée garantit la sécurité et la confidentialité de vos données tout en permettant la formation et l'évaluation collaboratives des modèles.
Veuillez contacter votre représentant Intel pour plus d'informations sur notre produit et notre programme bêta.