Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Important
Les traductions non anglaises sont fournies uniquement pour des raisons pratiques. Consultez la EN-US version de ce document pour obtenir la version définitive.
Cet article fournit des détails sur la façon dont les données fournies par vous à Azure Direct Models dans Microsoft Foundry sont traitées, utilisées et stockées. Azure Direct Model signifie un modèle IA désigné et déployé en tant que « modèle direct Azure » dans Foundry, et inclut des modèles Azure OpenAI. Azure Direct Models stocke et traite les données pour fournir le service et surveiller les utilisations qui ne respectent pas les conditions du produit applicables. Consultez également l’Addenda sur la protection des données des produits et services Microsoft, qui régit le traitement des données par les modèles Azure Direct. Foundry est un service Azure ; En savoir plus sur les offres de conformité Azure applicables.
Important
Vos requêtes (entrées) et réponses (sorties), vos incorporations et vos données d’apprentissage :
- ne sont pas disponibles pour d’autres clients.
- ne sont pas disponibles pour OpenAI ou d’autres fournisseurs Azure Direct Model.
- ne sont PAS utilisés par les fournisseurs Azure Direct Model pour améliorer leurs modèles ou services.
- ne sont pas utilisés pour entraîner des modèles de base d’IA génératives sans votre autorisation ou instruction.
- Les données client, les prompts et les saisies semi-automatiques ne sont PAS utilisés pour améliorer les produits ou services de Microsoft ou de tiers sans votre autorisation ou instruction explicites.
Vos modèles Azure Direct optimisés sont disponibles exclusivement pour votre utilisation.
Foundry est un service Azure ; Microsoft héberge les modèles Direct Azure dans l’environnement Azure de Microsoft et les modèles Azure Direct n’interagissent pas avec les services gérés par des fournisseurs Azure Direct Model, par exemple OpenAI (par exemple, ChatGPT ou l’API OpenAI).
Quelles sont les données que Foundry traite pour fournir des modèles Azure Direct ?
Foundry traite les types de données suivants pour fournir des modèles Azure Direct :
- Prompts et contenu généré. Lorsque les requêtes sont envoyées par l’utilisateur, le contenu est généré par le service, via les réponses, réponses de conversation, images et opérations d’incorporation.
- Données chargées. Vous pouvez charger vos propres données à utiliser avec certaines fonctionnalités de service (par exemple, réglage précis, API Assistant, traitement par lots) à l’aide de l’API Fichiers ou du magasin vectoriel.
- Données pour les entités avec état. Lorsque vous utilisez certaines fonctionnalités facultatives d’Azure Direct Models and Agents, telles que l’API Réponses, la fonctionnalité Threads de l’API Assistants et les achèvements stockés, le service crée un magasin de données pour conserver l’historique des messages et d’autres contenus, conformément à la configuration de la fonctionnalité.
- Données augmentées incluses avec ou via des requêtes. Quand vous utilisez des données associées à des entités avec état, le service récupère les données pertinentes à partir d’un magasin de données configuré et augmente la requête pour produire des générations qui sont ancrées avec vos données. Les instructions peuvent également être augmentées avec les données récupérées à partir d’une source incluse dans l’instruction elle-même, comme une URL.
- Données de formation et de validation. Vous pouvez fournir vos propres données d’apprentissage composées de paires requête-réponse à des fins de réglage fin d’un modèle.
Comment Foundry traite-t-il les données pour fournir des modèles Azure Direct ?
Le diagramme ci-dessous illustre la façon dont vos données sont traitées. Ce diagramme couvre plusieurs types de traitement :
- Comment Foundry traite vos invites via l’inférence avec Azure Direct Models pour générer du contenu (notamment lorsque des données supplémentaires d’une source de données désignée sont ajoutées à une invite à l’aide d’Azure OpenAI sur vos données, assistants ou traitement par lots).
- Comment la fonctionnalité Assistants stocke les données en connexion avec les messages, les threads et les exécutions.
- Comment la fonctionnalité de l’API Réponses stocke les données pour conserver l’historique des messages.
- Comment la fonctionnalité Batch traite vos données chargées.
- Comment Foundry crée un modèle affiné (personnalisé) avec vos données chargées.
- Comment Foundry et le personnel de Microsoft analysent les instructions et les résultats (texte et image) pour détecter du contenu dangereux et des modèles suggérant une utilisation du service d’une manière qui enfreint le Code de conduite ou d’autres conditions d’utilisation des produits applicables.
Comme illustré dans le diagramme ci-dessus, les clients sous gestion peuvent demander à modifier la surveillance des abus.
Génération de complétions, d’images ou de représentations via l’inférence
Les modèles directs Azure (de base ou ajustés) déployés dans votre ressource Foundry traitent vos requêtes d’entrée et génèrent des réponses avec du texte, des images ou des incorporations. Les invites et les complétions sont contrôlées en temps réel pour détecter des contenus nocifs, et la génération de contenu est filtrée selon les seuils configurés. En savoir plus sur la vue d’ensemble des garde-fous (précédemment des filtres de contenu).
Les invites et les réponses sont traitées dans la zone géographique spécifiée par le client (sauf si vous utilisez un type de déploiement Global ou DataZone), mais peuvent être traitées entre les régions de la zone géographique à des fins opérationnelles (y compris la gestion des performances et de la capacité). Consultez ci-dessous pour plus d’informations sur l’emplacement du traitement lors de l’utilisation d’un type de déploiement Global ou DataZone.
Les modèles sont sans état : aucune requête ni complétion n’est stockée dans le modèle. De plus, les invites et les complétions ne sont pas utilisés pour entraîner, réentraîner ou améliorer les modèles de base.
Comprendre l’emplacement du traitement pour les types de déploiement « Global » et « Zone de données »
Outre les déploiements standard, Foundry propose des options de déploiement de modèle direct Azure étiquetées « Global » et « DataZone ». Pour tout type de déploiement intitulé « Global », les invites et les réponses peuvent être traitées dans n’importe quelle zone géographique où le modèle Azure Direct approprié est déployé (en savoir plus sur la disponibilité des régions des modèles). Pour tous les types de déploiement étiquetés « DataZone », vous pouvez traiter les requêtes et réponses dans n’importe quelle zone géographique au sein de la zone de données spécifiée, comme défini par Microsoft. Si vous créez un déploiement DataZone dans une ressource Foundry située aux États-Unis, les invites et les réponses peuvent être traitées n’importe où aux États-Unis. Si vous créez un déploiement DataZone dans une ressource Foundry située dans une nation membre de l’Union européenne, des invites et des réponses peuvent être traitées dans cette ou toute autre nation membre de l’Union européenne. Pour les types de déploiement Global et DataZone, toutes les données stockées au repos, telles que les données chargées, et notamment le magasin de données de surveillance des abus créés pour les déploiements Global et DataZone, sont stockées dans la zone géographique désignée par le client. Seul l’emplacement du traitement est affecté lorsqu’un client utilise un type de déploiement global ou un type de déploiement DataZone dans Azure Direct Models ; Les engagements de traitement et de conformité des données Azure restent applicables.
Augmenter les requêtes pour « ancrer » les résultats générés « sur vos données »
La fonctionnalité Azure OpenAI « sur vos données » vous permet de connecter des sources de données pour baser les résultats générés avec vos données. Les données restent stockées dans la source de données et l’emplacement que vous désignez ; Azure OpenAI ne crée pas de magasin de données en double. Lorsqu’une invite utilisateur est reçue, le service récupère les données pertinentes de la source de données connectée et augmente l’invite. Le modèle traite cette invite augmentée et le contenu généré est retourné comme décrit ci-dessus. En savoir plus sur l’utilisation sécurisée de la fonctionnalité Sur vos données.
Fonctionnalités de stockage de données pour Azure Direct Models
Certaines fonctionnalités Azure Direct Models stockent des données dans le service. Ces données sont chargées par le client, à l’aide de l’API Fichiers ou du magasin vectoriel, ou sont stockées automatiquement en connexion avec certaines entités avec état telles que l’API Réponses, la fonctionnalité Threads de l’API Assistants et les achèvements stockés. Données stockées pour ces fonctionnalités :
- Est stocké au repos dans la ressource Foundry dans le locataire Azure du client, dans la même zone géographique que la ressource ;
- Est toujours chiffré au repos avec le chiffrement AES-256 de Microsoft par défaut, avec l’option d’utilisation d’une clé gérée par le client (certaines fonctionnalités en préversion peuvent ne pas prendre en charge les clés gérées par le client). Les clés gérées par Microsoft sont toujours utilisées pour garantir le chiffrement de référence pour toutes les données stockées.
- Peuvent être supprimées par le client à tout moment.
Note
Les modèles ou fonctionnalités en préversion peuvent ne pas prendre en charge toutes les conditions ci-dessus.
Les données stockées peuvent être utilisées avec les fonctionnalités/fonctionnalités de service suivantes :
- Création d’un modèle personnalisé (affiné). En savoir plus sur le fonctionnement de l’optimisation. Les modèles affinés sont exclusivement disponibles pour le client dont les données ont été utilisées pour créer le modèle affiné, sont chiffrés au repos (lorsqu’ils ne sont pas déployés pour inférence) et peuvent être supprimés par le client à tout moment. Les données d’apprentissage chargées pour le réglage précis ne sont pas utilisées pour entraîner des modèles de base d’IA génératives sans votre autorisation ni instruction.
- Traitement par lots. En savoir plus sur le fonctionnement du traitement par lots. Le traitement par lots est un type de déploiement global ; les données stockées au repos restent dans la zone géographique Azure désignée jusqu’à ce que la capacité de traitement soit disponible ; le traitement peut se produire dans n’importe quelle zone géographique où le modèle Azure Direct approprié est déployé (en savoir plus sur la disponibilité des régions des modèles).
- API Réponses. En savoir plus sur le fonctionnement de l’API Réponses . Cette API stocke l’historique des messages et d’autres contenus liés à l’historique des messages. Cela est nécessaire pour les conversations et les flux de travail à multiples échanges.
- API Assistants (préversion). En savoir plus sur le fonctionnement de l’API Assistants. Certaines fonctionnalités d’Assistants, telles que threads, stockent l’historique des messages et d’autres contenus.
- Réponses stockées (préversion). Les complétions enregistrées stockent les paires d'entrée-sortie des modèles Azure OpenAI déployés par le client, tels que GPT-4o, via l'API de complétions de conversation, et affichent les paires dans le portail Foundry. Cela permet aux clients de créer des jeux de données avec leurs données de production, qui peuvent ensuite être utilisés pour évaluer ou affiner les modèles (comme autorisé dans les conditions du produit applicables).
Prévention des abus
Pour réduire le risque d’utilisation abusive ou dangereuse, Azure Direct Models inclut des fonctionnalités de surveillance abusive. Pour en savoir plus sur la surveillance des abus, consultez la surveillance des abus.
Les évaluations de sécurité des modèles affinés évaluent un modèle affiné pour les réponses potentiellement dangereuses à l’aide des métriques de risque et de sécurité d’Azure. Seule l’évaluation résultante (déployable ou non déployable) est journalisée par le service.
Le système de surveillance des abus Azure Direct Models est conçu pour détecter et atténuer les instances de contenu périodique et/ou de comportements qui suggèrent l’utilisation du service d’une manière qui peut violer le code de conduite ou d’autres conditions de produit applicables. Comme décrit ici, le système utilise des algorithmes et des heuristiques pour détecter les indicateurs d’abus potentiels. Quand ces indicateurs sont détectés, un exemple de requêtes et de réponses du client peut être sélectionné pour révision. L’examen est effectué par des moyens automatisés, notamment par des modèles IA tels que des machines virtuelles LLM par défaut, avec des révisions supplémentaires par les réviseurs humains si nécessaire. Des informations détaillées sur l’examen automatisé et l’examen humain sont disponibles lors de la surveillance des abus.
Dans le cadre de l’évaluation automatisée, les requêtes et les réponses du client ne sont pas stockées par le système ni utilisées pour entraîner les modèles d'IA ou d'autres systèmes. L'entrepôt de données de surveillance des abus où les messages d'invite et les résultats sont stockés pour révision humaine est séparé logiquement par ressource client (chaque requête inclut l’ID de ressource du service Foundry du client). Un magasin de données distinct se trouve dans chaque zone géographique dans laquelle le modèle direct Azure est disponible, et les invites et le contenu généré d’un client sont stockés dans la zone géographique Azure où la ressource Foundry du client est déployée, dans la limite du service Azure Direct Models. Les réviseurs humains qui évaluent les abus potentiels peuvent accéder aux invites et aux données d’achèvement uniquement lorsque ces données ont déjà été signalées par le système de surveillance des abus ou lorsque les invites et les achèvements font partie d’un modèle d’utilisation potentiellement abusif. Les réviseurs humains sont des employés Microsoft autorisés qui accèdent aux données via des requêtes ponctuelles à l’aide des ID de requête, des stations de travail d’accès sécurisé (SAW) et des demandes d’approbation juste à temps (JIT) octroyées par les responsables d’équipe. Pour azure Direct Models déployé dans l’Espace économique européen, les employés autorisés de Microsoft se trouvent dans l’Espace économique européen.
Si le client a été approuvé pour la surveillance modifiée des abus (en savoir plus sur la surveillance des abus), le processus de stockage des données et de révision humaine décrit ci-dessus n’est pas effectué. Toutefois, la révision automatisée peut toujours être effectuée, en tirant parti des algorithmes, y compris les modèles d'IA qui examinent les invites et les complétions au moment où elles sont fournies ou générées, le cas échéant. Si une telle révision automatisée détecte le contenu potentiellement indiquant des abus graves ou récurrents dans l’abonnement du client, le client peut être soumis à des limitations sur l’accès, comme indiqué dans les conditions du produit pour l’utilisation responsable des services Microsoft AI. Le client peut également être invité à accepter que la surveillance des abus avec révision humaine soit activée pour réduire le risque de limitations futures sur l’accès (par exemple, limitation et/ou suspension du compte ou de l’abonnement où des abus ont été détectés).
Note
Les fonctionnalités Azure Preview, notamment Azure Direct Models en préversion, peuvent utiliser différentes pratiques de confidentialité, notamment en ce qui concerne la surveillance des abus. Les préversions peuvent être soumises à des conditions supplémentaires à l’adresse : Conditions d’utilisation supplémentaires pour les préversions Microsoft Azure.
Prévention de la génération de contenu nuisible
Azure Direct Models inclut un système conçu pour détecter et empêcher la sortie de contenu dangereux. Pour en savoir plus sur les garde-fous (filtres de contenu précédents), consultez Garde-fous.
Les garde-fous sont appliqués de manière synchrone lorsque le service traite les requêtes pour générer le contenu, comme décrit ci-dessus et ici. Aucune invite ou contenu généré n’est stocké dans les modèles de classifieur de contenu, et les invites et les sorties ne sont pas utilisées pour entraîner des modèles de base d’IA génératives sans votre autorisation ni instruction.
Comment un client peut-il vérifier si le stockage des données pour la surveillance des abus est désactivé ?
Il existe deux façons pour les clients, une fois approuvés pour désactiver la surveillance des abus, afin de vérifier que le stockage des données pour la surveillance des abus a été désactivé dans leur abonnement Azure approuvé :
- Utilisation du portail Azure ou
- Azure CLI (ou toute API de gestion).
Note
La valeur « false » pour l’attribut « ContentLogging » s’affiche uniquement si le stockage des données pour la surveillance des abus est désactivé. Sinon, cette propriété n’apparaît pas dans le portail Azure ou la sortie d’Azure CLI.
Prerequisites
- Connexion à Azure
- Sélectionnez l’abonnement Azure qui héberge la ressource Foundry.
- Accédez à la page Vue d’ensemble de la ressource Foundry.
Accédez à la page Vue d’ensemble des ressources
Cliquez sur le lien d’affichage JSON en haut à droite, comme illustré dans l’image ci-dessous.
Il y aura une valeur dans la liste des fonctionnalités appelée « ContentLogging » qui apparaîtra et sera définie sur FALSE lors de la journalisation pour la surveillance des abus est désactivée.
{
"name":"ContentLogging",
"value":"false"
}
Pour en savoir plus sur les engagements de confidentialité et de sécurité de Microsoft, consultez le Centre de gestion de la confidentialité Microsoft.
Journal des modifications
| Date | Modifications |
|---|---|
| 3 octobre 2025 | Document développé sur des modèles directs Azure ; garde-fous séparés (filtres de contenu précédemment) et sections de surveillance des abus ; ajout de clarifications sur la surveillance des abus et les abus graves ou récurrents. |
| 17 décembre 2024 | Ajout d’informations sur le traitement et le stockage des données en connexion avec la nouvelle fonctionnalité d’achèvements stockés ; ajout d’une langue indiquant que les fonctionnalités Azure OpenAI en préversion peuvent ne pas prendre en charge toutes les conditions de stockage des données ; suppression de la désignation « préversion » pour le traitement par lots |
| 18 novembre 2024 | Ajout d’informations sur l’emplacement du traitement des données pour les nouveaux types de déploiement « Zone de données » ; ajout d’informations sur la nouvelle révision de l’IA des invites et des achèvements dans le cadre de la prévention des abus et de la génération de contenu dangereux |
| 4 septembre 2024 | Ajout d’informations (et révision du texte existant en conséquence) sur le traitement des données pour les nouvelles fonctionnalités, notamment l’API Assistants (préversion), Batch (préversion) et les déploiements globaux ; langue révisée liée à l’emplacement du traitement des données, conformément aux principes de résidence des données Azure ; ajout d’informations sur le traitement des données pour les évaluations de sécurité des modèles affinés ; clarification des engagements liés à l’utilisation d’invites et d’achèvements ; révisions mineures pour améliorer la clarté |
| 23 juin 2023 | Ajout d’informations sur le traitement des données pour la nouvelle fonctionnalité Azure sur vos données ; suppression d’informations sur la surveillance des abus qui est désormais disponible dans la surveillance des abus du service Azure OpenAI. Ajout d’une note récapitulative. Contenu mis à jour et simplifié et diagrammes mis à jour pour plus de clarté. ajout du journal des modifications |
Voir aussi
- Code de conduite pour les intégrations du service Azure OpenAI
- Vue d’ensemble des pratiques d’une IA responsable pour les modèles Azure OpenAI
- Note de transparence et cas d’usage pour le service Azure OpenAI
- Résidence des données dans l'Azure
- Comparer Azure OpenAI dans Azure Government
- Accès limité à Azure OpenAI Service
- Signaler l’abus d’Azure OpenAI Service via le portail d’abus de rapports
- Signaler un problème à cscraireport@microsoft.com