Partage via


Données, confidentialité et sécurité pour l’utilisation de modèles via le catalogue de modèles dans AI Studio

Cet article fournit des détails sur la façon dont les données que vous fournissez sont traitées, utilisées et stockées lorsque vous déployez des modèles du catalogue de modèles. Consultez également l'Addenda sur la protection des données des produits et services Microsoft, qui régit le traitement des données par les services Azure.

Quelles données sont traitées pour les modèles déployés dans Azure AI Studio ?

Lorsque vous déployez des modèles dans Azure AI Studio, les types de données suivants sont traités pour fournir le service :

  • Prompts et contenu généré. Un utilisateur envoie un prompt et le modèle génère du contenu (sortie) via les opérations prises en charge par le modèle. Les prompts peuvent inclure du contenu ajouté via la génération augmentée de récupération (RAG), des métaprompts ou d’autres fonctionnalités incluses dans une application.

  • Donnéeschargées. Pour les modèles qui prennent en charge l’optimisation, les clients peuvent charger leurs données dans un magasin de données afin de les utiliser pour l’optimisation.

Générer des sorties d’inférence avec un calcul managé

Le déploiement de modèles vers des calculs managés déploie les poids du modèle sur des machines virtuelles dédiées et expose une API REST pour l'inférence en temps réel. Explorez plus en détail le déploiement de modèles du catalogue de modèles sur des calculs managés ici. Vous gérez l’infrastructure de ces calculs managés, et les engagements d’Azure en termes de données, de confidentialité et de sécurité s’appliquent. Découvrez plus en détail les offres de conformité Azure applicables à Azure AI Studio ici.

Même si les conteneurs des modèles « Organisés par Azure AI » sont analysés pour détecter des vulnérabilités susceptibles d’exfiltrer des données, les modèles disponibles dans le catalogue de modèles ne sont pas tous analysés. Pour réduire le risque d’exfiltration des données, vous pouvez protéger votre déploiement à l’aide de réseaux virtuels. Plus d’informations Vous pouvez également utiliser Azure Policy pour réglementer les modèles que vos utilisateurs peuvent déployer.

Diagramme montrant le cycle de vie du service de plateforme.

Générer des sorties d’inférence en tant qu’API serverless

Lorsque vous déployez un modèle du catalogue de modèles (de base ou optimisé) à l’aide d’API serverless avec paiement à l’utilisation pour l’inférence, une API est approvisionnée pour vous permettre d’accéder au modèle hébergé et géré par Azure Machine Learning service. Explorez plus en détail les API serverless dans Catalogue de modèles et collections. Le modèle traite vos prompts d’entrée et génère des sorties en fonction des fonctionnalités du modèle, comme décrit dans les détails du modèle fournis pour le modèle. Bien que le modèle provienne du fournisseur de modèles et que votre utilisation du modèle (et la responsabilité du fournisseur de modèles pour le modèle et ses sorties) soit soumise aux termes du contrat de licence fournis avec le modèle, Microsoft procure et gère l’infrastructure d’hébergement et le point de terminaison d’API. Les modèles hébergés dans les modèles en tant que service sont soumis aux engagements d’Azure en termes de données, de confidentialité et de sécurité. Découvrez plus en détail les offres de conformité Azure applicables à Azure AI Studio ici.

Important

Certaines des fonctionnalités décrites dans cet article peuvent uniquement être disponibles en préversion. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.

Microsoft agit en tant que processeur de données pour les prompts et les sorties envoyées à un modèle déployé pour l’inférence de paiement à l’utilisation (MaaS). Microsoft ne partage pas ces prompts et sorties avec le fournisseur de modèles, et Microsoft n’utilise pas ces prompts et sorties pour entraîner ou améliorer les modèles de Microsoft, du fournisseur de modèles ou de tout tiers. Les modèles sont sans état et aucun prompt ni sortie n’est stocké dans le modèle. Si le filtrage de contenu (préversion) est activé, les prompts et les sorties sont filtrés pour certaines catégories de contenu dangereux par le service Azure AI Sécurité du Contenu en temps réel. Découvrez plus d’informations sur la façon dont Azure AI Sécurité du Contenu traite les données ici. Les prompts et sorties sont traités dans la zone géographique spécifiée pendant le déploiement, mais peuvent être traités entre les régions de la zone géographique à des fins opérationnelles (y compris la gestion des performances et de la capacité).

Un diagramme montrant le cycle de service de l’éditeur de modèle.

Remarque

Comme expliqué lors du processus de déploiement pour les Modèles en tant que Service (Models-as-a-Service), Microsoft peut partager les coordonnées des clients et les détails des transactions (y compris le volume d'utilisation associé à l'offre) avec l'éditeur du modèle afin qu'ils puissent contacter les clients concernant le modèle. Explorez plus en détail les informations à la disposition des éditeurs de modèles dans Analytique pour la Place de marché commerciale Microsoft dans l’Espace partenaires.

Optimiser un modèle pour le déploiement de paiement à l’utilisation (modèles en tant que service)

Si un modèle disponible pour les API serverless prend en charge l’optimisation, vous pouvez charger des données sur (ou désigner des données qui sont déjà dans) un magasin de données pour optimiser le modèle. Vous pouvez ensuite créer un déploiement d’API serverless pour le modèle optimisé. Le modèle optimisé ne peut pas être téléchargé, mais le modèle optimisé :

  • est disponible exclusivement pour votre utilisation ;
  • peut être double chiffré au repos (par défaut, avec le chiffrement AES-256 de Microsoft et éventuellement avec une clé gérée par le client).
  • peut être supprimé à tout moment.

Les données d’entraînement chargées pour l’optimisation ne sont pas utilisées pour entraîner, réentraîner ou améliorer les modèles Microsoft ou tiers, sauf pour vous au sein du service.

Traitement des données pour les modèles téléchargés

Si vous téléchargez un modèle à partir du Catalogue de modèles, vous choisissez où déployer le modèle et vous êtes responsable de la façon dont les données sont traitées lorsque vous utilisez le modèle.

En savoir plus