Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Important
Les traductions non anglaises sont fournies uniquement pour des raisons pratiques. Consultez la version EN-US de ce document pour la version définitive.
Cet article fournit des détails sur la façon dont les données fournies par vous pour Azure modèles directs dans Microsoft Foundry sont traitées, utilisées et stockées. Azure Direct Model signifie un modèle IA désigné et déployé en tant que « Azure Direct Model » dans Foundry et inclut les modèles OpenAI d'Azure. Azure Direct Models stockent et traitent les données pour fournir le service et surveiller les utilisations qui ne respectent pas les conditions du produit applicables. Consultez également l'Addendum relatif à la protection des données des produits et services Microsoft, qui régit le traitement des données par Azure Direct Models. Foundry est un service d'Azure ; en savoir plus sur les offres de conformité Azure applicables.
Important
Vos requêtes (entrées) et réponses (sorties), vos incorporations et vos données d’apprentissage :
- ne sont pas disponibles pour d’autres clients.
- ne sont pas disponibles pour OpenAI ou d’autres fournisseurs de modèles directs Azure.
- ne sont pas utilisés par Azure fournisseurs de modèles directs pour améliorer leurs modèles ou services.
- ne sont pas utilisés pour entraîner des modèles de base d’IA génératives sans votre autorisation ou instruction.
- Les données client, les prompts et les saisies semi-automatiques ne sont PAS utilisés pour améliorer les produits ou services de Microsoft ou de tiers sans votre autorisation ou instruction explicites.
Vos modèles directs Azure affinés sont disponibles exclusivement pour votre utilisation.
Foundry est un service Azure ; Microsoft héberge les Modèles Directs Azure dans l'environnement Azure de Microsoft, et les Modèles Directs Azure n'interagissent pas avec les services opérés par les fournisseurs de modèles directs Azure, tels que OpenAI (comme ChatGPT ou l'API OpenAI).
Quelles sont les données que Foundry traite pour fournir Azure modèles directs ?
Foundry traite les types de données suivants pour fournir Azure modèles directs :
- Prompts et contenu généré. Lorsque les requêtes sont envoyées par l’utilisateur, le contenu est généré par le service, via les réponses, réponses de conversation, images et opérations d’incorporation.
- Données chargées. Vous pouvez charger vos propres données à utiliser avec certaines fonctionnalités de service (par exemple, fine-tuning, 'API d’assistance, batch processing) à l’aide de l’API Files ou du magasin de vecteurs.
- Données pour les entités avec état. Lorsque vous utilisez certaines fonctionnalités facultatives de Azure Direct Models and Agents, telles que l’API Responses, la fonctionnalité Threads de l’API Assistants et les achèvements stockés, le service crée un magasin de données pour conserver l’historique des messages et d’autres contenus, conformément à la configuration de la fonctionnalité.
- Données augmentées incluses avec ou via des requêtes. Quand vous utilisez des données associées à des entités avec état, le service récupère les données pertinentes à partir d’un magasin de données configuré et augmente la requête pour produire des générations qui sont ancrées avec vos données. Les instructions peuvent également être augmentées avec les données récupérées à partir d’une source incluse dans l’instruction elle-même, comme une URL.
- Données de formation et de validation. Vous pouvez fournir vos propres données d’apprentissage composées de paires de requêtes-réponses à des fins d’affinage d’un modèle.
Comment Foundry traite-t-il les données pour fournir Azure modèles directs ?
Le diagramme ci-dessous illustre la façon dont vos données sont traitées. Ce diagramme couvre plusieurs types de traitement :
- Comment Foundry traite vos invites via l'inférence avec les Modèles Directs Azure pour générer du contenu (y compris lorsque des données supplémentaires d'une source de données désignée sont ajoutées à une invite à l'aide d'Azure OpenAI sur vos données, avec des Assistants ou par traitement par lots).
- Comment la fonctionnalité Assistants stocke les données en connexion avec les messages, les threads et les exécutions.
- Comment la fonctionnalité de l’API Réponses stocke les données pour conserver l’historique des messages.
- Comment la fonctionnalité Batch traite vos données chargées.
- Comment Foundry crée un modèle affiné (personnalisé) avec vos données chargées.
- Comment Foundry et le personnel de Microsoft analysent les instructions et les résultats (texte et image) pour détecter du contenu dangereux et des modèles suggérant une utilisation du service d’une manière qui enfreint le Code de conduite ou d’autres conditions d’utilisation des produits applicables.
Comme illustré dans le diagramme ci-dessus, les clients sous gestion peuvent demander à modifier la surveillance des abus.
Génération de complétions, d’images ou de représentations via l’inférence
Modèles directs Azure (base ou affiné) déployés dans vos ressources Foundry traitent vos invites d’entrée et génèrent des réponses sous forme de texte, d'images ou d'embeddings. Les invites et les complétions sont contrôlées en temps réel pour détecter des contenus nocifs, et la génération de contenu est filtrée selon les seuils configurés. En savoir plus sur Guardrails (filtres de contenu précédemment) vue d’ensemble.
Les invites et les réponses sont traitées dans le geography spécifié par le client (sauf si vous utilisez un type de déploiement Global ou DataZone), mais peuvent être traitées entre les régions de la zone géographique à des fins opérationnelles (y compris la gestion des performances et de la capacité). Consultez ci-dessous pour plus d’informations sur l’emplacement du traitement lors de l’utilisation d’un type de déploiement Global ou DataZone.
Les modèles sont sans état : aucune requête ni complétion n’est stockée dans le modèle. De plus, les invites et les complétions ne sont pas utilisés pour entraîner, réentraîner ou améliorer les modèles de base.
Comprendre l’emplacement du traitement pour les types de déploiement « Global » et « Zone de données »
Outre les déploiements standard, Foundry offre Azure options de déploiement de modèle direct étiquetées « Global » et « DataZone ». Pour tout type déploiement étiqueté « Global », les invites et les réponses peuvent être traitées dans n'importe quelle zone géographique où le modèle direct Azure approprié est déployé (en savoir plus sur la disponibilité region des modèles). Pour tous les types de déploiement étiquetés « DataZone », vous pouvez traiter les requêtes et réponses dans n’importe quelle zone géographique au sein de la zone de données spécifiée, comme défini par Microsoft. Si vous créez un déploiement DataZone au sein d'une ressource Foundry située aux États-Unis, les invites et les réponses peuvent être traitées n’importe où aux États-Unis. Si vous créez un déploiement DataZone dans une ressource Foundry située dans une nation membre de l’Union européenne, des invites et des réponses peuvent être traitées dans cette ou toute autre nation membre de l’Union européenne. Pour les types de déploiement Global et DataZone, toutes les données stockées au repos, telles que les données chargées, et notamment le magasin de données de surveillance des abus créés pour les déploiements Global et DataZone, sont stockées dans la zone géographique désignée par le client. Seul l’emplacement du traitement est affecté lorsqu’un client utilise un type de déploiement global ou un type de déploiement DataZone dans Azure modèles directs ; Azure les engagements de traitement et de conformité des données restent applicables.
Augmenter les requêtes pour « ancrer » les résultats générés « sur vos données »
La fonctionnalité OpenAI « sur vos données » Azure vous permet de connecter des sources de données pour baser les résultats générés avec vos données. Les données restent stockées dans la source de données et l’emplacement que vous désignez ; Azure OpenAI ne crée pas de magasin de données en double. Lorsqu’une invite utilisateur est reçue, le service récupère les données pertinentes de la source de données connectée et augmente l’invite. Le modèle traite cette invite augmentée et le contenu généré est retourné comme décrit ci-dessus. En savoir plus sur la façon d'utiliser la fonctionnalité On Your Data en toute sécurité.
Stockage de données pour les fonctionnalités des modèles directs Azure
Certaines fonctionnalités Azure Direct Models stockent des données dans le service. Ces données sont chargées par le client, à l’aide de l’API Fichiers ou du magasin vectoriel, ou sont stockées automatiquement en connexion avec certaines entités avec état telles que l’API Réponses, la fonctionnalité Threads de l’API Assistants et les achèvements stockés. Données stockées pour ces fonctionnalités :
- Est stocké au repos dans la ressource Foundry de l'instance Azure du client, dans la même région que la ressource ;
- Est toujours chiffré lorsqu'il est stocké avec le chiffrement AES-256 de Microsoft par défaut, avec la possibilité d'utiliser une clé gérée par le client (certaines fonctionnalités en version préliminaire peuvent ne pas prendre en charge les clés gérées par le client). Les clés gérées par Microsoft sont toujours utilisées pour garantir le chiffrement de référence pour toutes les données stockées.
- Peuvent être supprimées par le client à tout moment.
Note
Les modèles ou fonctionnalités en préversion peuvent ne pas prendre en charge toutes les conditions ci-dessus.
Les données stockées peuvent être utilisées avec les fonctionnalités/fonctionnalités de service suivantes :
- Création d’un modèle personnalisé (affiné). En savoir plus sur comment fonctionne l'ajustement fin. Les modèles affinés sont exclusivement disponibles pour le client dont les données ont été utilisées pour créer le modèle affiné, sont chiffrés au repos (lorsqu’ils ne sont pas déployés pour inférence) et peuvent être supprimés par le client à tout moment. Les données d’apprentissage chargées pour le réglage précis ne sont pas utilisées pour entraîner des modèles de base d’IA génératives sans votre autorisation ni instruction.
- Traitement par lots. En savoir plus sur le fonctionnement du traitement par lots. Le traitement par lots est un type de déploiement global ; les données stockées au repos restent dans la zone géographique désignée Azure jusqu’à ce que la capacité de traitement soit disponible ; le traitement peut se produire dans n’importe quelle zone géographique où le modèle direct Azure approprié est déployé (en savoir plus sur la disponibilité enregion des modèles).
- API Réponses. Découvrez comment fonctionne l’API Responses. Cette API stocke l’historique des messages et d’autres contenus liés à l’historique des messages. Cela est nécessaire pour les conversations et les flux de travail à multiples échanges.
- API Assistants (préversion). En savoir plus sur how the Assistants API works. Certaines fonctionnalités d’Assistants, telles que threads, stockent l’historique des messages et d’autres contenus.
- Réponses stockées (préversion). Complétions stockées conserve des paires entrée-sortie des modèles Azure OpenAI déployés par le client, tels que GPT-4o, via l’API de complétions de conversation et affiche les paires dans le portail Foundry. Cela permet aux clients de créer des jeux de données avec leurs données de production, qui peuvent ensuite être utilisés pour évaluer ou affiner les modèles (comme autorisé dans les conditions du produit applicables).
Prévention des abus
Pour réduire le risque d’utilisation abusive ou dangereuse, Azure Modèles directs inclut des fonctionnalités de surveillance des abus. Pour en savoir plus sur la surveillance des abus, consultez abuse monitoring.
Les évaluations de sécurité des modèles affinés évaluent un modèle affiné pour les réponses potentiellement dangereuses à l’aide des mesures de risque et de sécurité de Azure. Seule l’évaluation résultante (déployable ou non déployable) est journalisée par le service.
Le système de surveillance des abus Azure Direct Models est conçu pour détecter et atténuer les instances de contenu périodique et/ou de comportements qui suggèrent l’utilisation du service d’une manière qui peut violer le code de conduite code de conduite ou d’autres conditions de produit applicables. Comme décrit here, le système utilise des algorithmes et des heuristiques pour détecter les indicateurs d’abus potentiels. Quand ces indicateurs sont détectés, un exemple de requêtes et de réponses du client peut être sélectionné pour révision. L’examen est effectué par des moyens automatisés, notamment par des modèles IA tels que des machines virtuelles LLM par défaut, avec des révisions supplémentaires par les réviseurs humains si nécessaire. Des informations détaillées sur l’examen automatisé et l’examen humain sont disponibles à Surveillance d’abuse.
Dans le cadre de l’évaluation automatisée, les requêtes et les réponses du client ne sont pas stockées par le système ni utilisées pour entraîner les modèles d'IA ou d'autres systèmes. L'entrepôt de données de surveillance des abus où les messages d'invite et les résultats sont stockés pour révision humaine est séparé logiquement par ressource client (chaque requête inclut l’ID de ressource du service Foundry du client). Un magasin de données distinct se trouve dans chaque zone géographique dans laquelle le modèle direct Azure est disponible, et les invites d’un client et le contenu généré sont stockés dans la zone géographique Azure où la ressource Foundry du client est déployée, dans la limite du service Azure Direct Models. Les réviseurs humains qui évaluent les abus potentiels peuvent accéder aux invites et aux complétions uniquement lorsque ces données ont déjà été signalées par le système de surveillance des abus, ou lorsque les invites et les complétions font partie d’un usage potentiellement abusif. Les réviseurs humains sont des employés Microsoft autorisés qui accèdent aux données via des requêtes point par point à l’aide des ID de requête, des stations de travail sécurisées (SAW) et des demandes d’approbation juste-à-temps (JIT) accordées par les responsables d'équipes. Pour Azure Modèles directs déployés dans l’Espace économique européen, les employés autorisés de Microsoft se trouvent dans l’Espace économique européen.
Si le client a été approuvé pour la surveillance des abus modifiée (en savoir plus sur Abuse Monitoring), le processus de stockage des données et de révision humaine décrit ci-dessus n’est pas effectué. Toutefois, la révision automatisée peut toujours être effectuée, en tirant parti des algorithmes, y compris les modèles d'IA qui examinent les invites et les complétions au moment où elles sont fournies ou générées, le cas échéant. Si une telle révision automatisée détecte un contenu susceptible d'indiquer des abus graves ou récurrents dans l’abonnement du client, le client peut être soumis à des restrictions d'accès, comme indiqué dans les Conditions du Produit pour l'utilisation responsable des Services d'IA de Microsoft. Le client peut également être invité à accepter que la surveillance des abus avec révision humaine soit activée pour réduire le risque de limitations futures sur access (par exemple, limitation et/ou suspension du compte ou de l’abonnement où des abus ont été détectés).
Note
Fonctionnalités Azure en préversion, y compris les Modèles directs Azure en préversion, peuvent utiliser différentes pratiques de confidentialité, y compris pour la surveillance des abus. Les versions préliminaires peuvent être soumises à des conditions supplémentaires à : Conditions supplémentaires d’utilisation de Microsoft Azure Previews.
Prévention de la génération de contenu nuisible
Azure Modèles directs incluent un système conçu pour détecter et empêcher la sortie de contenu dangereux. Pour en savoir plus sur les garde-fous (filtres de contenu précédents), consultez Guardrails.
Les garde-fous interviennent de manière synchrone lorsque le service traite les invites pour générer du contenu comme décrit ci-dessus et ici. Aucune invite ou contenu généré n’est stocké dans les modèles de classifieur de contenu, et les invites et les sorties ne sont pas utilisées pour entraîner des modèles de base d’IA génératives sans votre autorisation ni instruction.
Comment un client peut-il vérifier si le stockage de données pour la surveillance des abus est désactivé ?
Il existe deux façons pour les clients, une fois l'approbation reçue pour désactiver la surveillance des abus, de vérifier que le stockage de données pour la surveillance des abus a été désactivé dans leur abonnement Azure approuvé :
- Utilisation du Azure portal ou
- Azure CLI (ou toute API de gestion).
Note
La valeur « false » pour l’attribut « ContentLogging » s’affiche uniquement si les données storage pour la surveillance des abus sont désactivées. Sinon, cette propriété n'apparaît pas dans la sortie de Azure portal ou de Azure CLI.
Prerequisites
- Connectez-vous à Azure
- Sélectionnez l’abonnement Azure qui héberge la ressource Foundry.
- Accédez à la page Vue d’ensemble de la ressource Foundry.
Accédez à la page Vue d’ensemble des ressources
Cliquez sur le lien d’affichage JSON en haut à droite, comme illustré dans l’image ci-dessous.
Il y aura une valeur dans la liste des fonctionnalités appelée « ContentLogging » qui apparaîtra et sera définie sur FALSE lors de la journalisation pour la surveillance des abus est désactivée.
{
"name":"ContentLogging",
"value":"false"
}
Pour en savoir plus sur les engagements de confidentialité et de sécurité de Microsoft, consultez le Microsoft Trust Center.
Journal des modifications
| Date | Modifications |
|---|---|
| 3 octobre 2025 | Document étendu aux modèles directs Azure ; garde-fous séparés (filtres de contenu précédemment) et sections de surveillance des abus ; ajout de clarifications sur la surveillance des abus et les abus graves ou récurrents. |
| 17 décembre 2024 | Ajout d'informations sur le traitement des données et le stockage en lien avec la nouvelle fonctionnalité d’achèvements stockés ; ajout de précisions indiquant que les fonctionnalités Azure OpenAI en préversion ne prennent pas en charge toutes les conditions de stockage de données ; suppression de la désignation « préversion » pour le traitement Batch. |
| 18 novembre 2024 | Ajout d’informations sur l’emplacement du traitement des données pour les nouveaux types de déploiement « Zone de données » ; ajout d’informations sur la nouvelle révision de l’IA des invites et des achèvements dans le cadre de la prévention des abus et de la génération de contenu dangereux |
| 4 septembre 2024 | Ajout d’informations (et révision du texte existant en conséquence) sur le traitement des données pour les nouvelles fonctionnalités, y compris l’API Assistants (préversion), Batch (préversion) et les déploiements globaux, et révision de la langue relative à l’emplacement du traitement des données, conformément aux principes de résidence des données Azure ; ajout d’informations sur le traitement des données pour les évaluations de sécurité des modèles affinés ; clarification des engagements liés à l’utilisation des invites et des terminaisons ; révisions mineures pour améliorer la clarté. |
| 23 juin 2023 | Ajout d’informations sur le traitement des données pour la nouvelle fonctionnalité de données Azure ; suppression des informations sur la surveillance des abus désormais disponibles à Azure OpenAI Service surveillance des abus. Ajout d’une note récapitulative. Contenu mis à jour et simplifié, et diagrammes actualisés pour une clarté supplémentaire. ajout du journal des modifications |
Voir aussi
- Code de conduite pour les intégrations Azure OpenAI Service
- Aperçu des pratiques d'IA responsable pour les modèles Azure OpenAI
- Note de transparence et des cas d’usage pour Azure OpenAI Service
- Résidence des données dans Azure
- Comparer Azure OpenAI dans Azure Government
- Accès limité à Azure OpenAI Service
- Signaler l’abus de Azure OpenAI Service via le portail Report Abuse Portal
- Signaler un problème à cscraireport@microsoft.com