Partager via


Données, confidentialité et sécurité pour l’utilisation de modèles via le Catalogue de modèles

Cet article fournit des détails sur la façon dont les données que vous fournissez sont traitées, utilisées et stockées lorsque vous déployez des modèles à partir du Catalogue de modèles. Consultez également l'Addenda sur la protection des données des produits et services Microsoft, qui régit le traitement des données par les services Azure.

Quelles données sont traitées pour les modèles déployés dans Azure Machine Learning ?

Lorsque vous déployez des modèles dans Azure Machine Learning, les types de données suivants sont traités pour fournir le service :

  • Prompts et contenu généré. Les prompts sont envoyés par l’utilisateur et le contenu (sortie) est généré par le modèle via les opérations prises en charge par le modèle. Les prompts peuvent inclure du contenu ajouté via la génération augmentée par récupération (RAG), des métaprompts, ou d'autres fonctionnalités incluses dans une application.

  • Données chargées. Pour les modèles qui prennent en charge l’optimisation, les clients peuvent charger leurs données dans le Magasin de données Azure Machine Learning afin de les utiliser pour l’optimisation.

Générer des sorties d’inférence avec un calcul managé

Le déploiement de modèles sur des calculs managés déploie les poids du modèle sur des machines virtuelles dédiées et expose une API REST pour l’inférence en temps réel. Explorez plus en détail le déploiement de modèles du Catalogue de modèles aux calculs managés. Vous gérez l’infrastructure de ces calculs managés, et les engagements d’Azure en termes de données, de confidentialité et de sécurité s’appliquent. Découvrez plus d’informations sur les offres de conformité Azure applicables à Azure Machine Learning.

Bien que les conteneurs des modèles « Curated by Azure AI » (Organisés par Azure AI) aient été analysés pour détecter des vulnérabilités pouvant exfiltrer des données, certains des modèles disponibles dans le catalogue de modèles n’ont pas été analysés. Pour réduire le risque d’exfiltration des données, vous pouvez protéger votre déploiement à l’aide de réseaux virtuels. Suivez ce lien pour en savoir plus. Vous pouvez également utiliser Azure Policy pour réglementer les modèles qui peuvent être déployés par vos utilisateurs.

Diagramme montrant le cycle de vie du service de plateforme.

Générer des sorties d’inférence avec des API serverless (Modèles en tant que service)

Quand vous déployez un modèle depuis le catalogue de modèles (de base ou optimisé) en tant qu’API serverless pour l’inférence, une API est approvisionnée pour vous permettre d’accéder au modèle hébergé et managé par le service Azure Machine Learning. En savoir plus sur les Modèles en tant que service. Le modèle traite vos prompts d’entrée et génère des sorties en fonction des fonctionnalités du modèle, comme décrit dans les détails du modèle fournis pour le modèle. Bien que le modèle provienne du fournisseur de modèles et que votre utilisation du modèle (et la responsabilité du fournisseur de modèles pour le modèle et ses sorties) soit soumise aux termes du contrat de licence fournis avec le modèle, Microsoft procure et gère l’infrastructure d’hébergement et le point de terminaison d’API. Les modèles hébergés dans les modèles en tant que service sont soumis aux engagements d’Azure en termes de données, de confidentialité et de sécurité. Découvrez plus d’informations sur les offres de conformité Azure applicables à Azure Machine Learning ici.

Important

Cette fonctionnalité est actuellement disponible en préversion publique. Cette préversion est fournie sans contrat de niveau de service et n’est pas recommandée pour les charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge.

Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.

Microsoft agit en tant que processeur de données pour les prompts et les sorties envoyées à un modèle déployé pour l’inférence de paiement à l’utilisation (MaaS). Microsoft ne partage pas ces prompts et ces sorties avec le fournisseur de modèles, et n’utilise pas ces prompts et ces sorties pour effectuer l’apprentissage ou améliorer des modèles de Microsoft, du fournisseur de modèles ou de tiers. Les modèles sont sans état et aucun prompt ni sortie n’est stocké dans le modèle. Si le filtrage de contenu (préversion) est activé, les prompts et les sorties sont filtrés pour certaines catégories de contenu dangereux par le service Azure AI Sécurité du Contenu en temps réel. Découvrez plus d’informations sur la façon dont Azure AI Sécurité du Contenu traite les données ici. Les prompts et sorties sont traités dans la zone géographique spécifiée pendant le déploiement, mais peuvent être traités entre les régions de la zone géographique à des fins opérationnelles (y compris la gestion des performances et de la capacité).

Un diagramme montrant le cycle de service de l’éditeur de modèle.

Comme expliqué lors du processus de déploiement pour les Modèles en tant que Service (Models-as-a-Service), Microsoft peut partager les coordonnées des clients et les détails des transactions (y compris le volume d'utilisation associé à l'offre) avec l'éditeur du modèle afin qu'ils puissent contacter les clients concernant le modèle. En savoir plus sur les informations disponibles pour les éditeurs de modèles, suivez ce lien.

Optimiser un modèle avec des API serverless (Modèles en tant que service)

Si un modèle disponible pour le déploiement d’API serverless prend en charge l’optimisation, vous pouvez charger des données vers (ou désigner des données déjà présentes dans) un Magasin de données Azure Machine Learning pour optimiser le modèle. Vous pouvez ensuite créer une API serverless pour le modèle optimisé. Le modèle optimisé ne peut pas être téléchargé, mais le modèle optimisé :

  • est disponible exclusivement pour votre utilisation ;

  • peut être double chiffré au repos (par défaut, avec le chiffrement AES-256 de Microsoft et éventuellement avec une clé gérée par le client).

  • peut être supprimé à tout moment.

Les données d’entraînement chargées pour l’optimisation ne sont pas utilisées pour entraîner, réentraîner ou améliorer les modèles Microsoft ou tiers, sauf pour vous au sein du service.

Traitement des données pour les modèles téléchargés

Si vous téléchargez un modèle depuis le catalogue de modèles, vous choisissez où déployer le modèle et vous êtes responsable de la façon dont les données sont traitées quand vous utilisez le modèle.

Étapes suivantes