Remarque
L’accès à cette page requiert une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page requiert une autorisation. Vous pouvez essayer de modifier des répertoires.
Affichage actuel :Version du portail - Passer à la version du nouveau portail Foundry
Note
Les liens de cet article peuvent ouvrir du contenu dans la nouvelle documentation Microsoft Foundry au lieu de la documentation Foundry (classique) que vous affichez maintenant.
Cet article répertorie une sélection de modèles Microsoft Foundry vendus directement par Azure dans Azure Government, ainsi que leurs fonctionnalités et types de déploiement et régions de disponibilité.
Les modèles vendus directement par Azure incluent tous les modèles OpenAI Azure proposés dans Azure Government. Ces modèles sont facturés via votre abonnement Azure, couverts par des contrats de niveau de service Azure et pris en charge par Microsoft.
Pour en savoir plus sur les attributs de tous les modèles Foundry vendus directement par Azure sur tous les clouds, consultez Models vendus directement par Azure.
Azure OpenAI dans les modèles Microsoft Foundry dans Azure Government
Azure OpenAI est alimenté par un ensemble diversifié de modèles avec différentes fonctionnalités et points de prix. La disponibilité des modèles dans Azure Government varie selon la région.
| Models | Descriptif |
|---|---|
| Série GPT-5.1 |
NOUVEAUgpt-5.1 |
| Série GPT-4.1 | gpt-4.1, gpt-4.1-mini |
| modèles de la série O | Modèles de raisonnement avec résolution de problèmes avancées et concentration et capacité accrues. |
| GPT-4o | Modèles OpenAI d'Azure capables avec des versions multimodales, qui peuvent accepter à la fois du texte et des images en entrée. |
| Embeddings | Ensemble de modèles qui permettent de convertir du texte en forme vectorielle numérique pour faciliter la similarité du texte. |
GPT-5.1
Disponibilité de la région
| Modèle | Région |
|---|---|
gpt-5.1 |
Consultez la table des modèles. |
| ID de modèle | Descriptif | Fenêtre contextuelle | Nombre maximal de jetons de sortie | Données d’entraînement (date max.) |
|---|---|---|---|---|
gpt-5.1 (2025-11-13) |
-
Raisonnement - API de saisie semi-automatique de conversation. - API Responses. - Sorties structurées. - Traitement du texte et de l’image. - Fonctions, outils et appel d’outils parallèles. - Résumé complet des fonctionnalités. |
400 000 Entrée : 272 000 Sortie : 128 000 |
128 000 | 30 septembre 2024 |
Important
-
gpt-5.1reasoning_effortest défini par défaut surnone. Lors de la mise à niveau des modèles de raisonnement précédents versgpt-5.1, gardez à l’esprit que vous devrez peut-être mettre à jour votre code pour spécifier explicitement un niveau dereasoning_effortsi vous souhaitez que le raisonnement se produise.
Série GPT-4.1
Disponibilité de la région
| Modèle | Région |
|---|---|
gpt-4.1 (2025-04-14) |
Consultez la table des modèles. |
gpt-4.1-mini (2025-04-14) |
Consultez la table des modèles. |
Capacités
Important
Un problème connu affecte tous les modèles de série GPT 4.1. Les définitions d’appel d’outil ou de fonction volumineuses qui dépassent 300 000 jetons entraînent des échecs, même si la limite de contexte de jeton de 1 million de modèles n’a pas été atteinte.
Les erreurs peuvent varier en fonction de l’appel d’API et des caractéristiques de charge utile sous-jacentes.
Voici les messages d’erreur pour l’API De saisie semi-automatique de conversation :
Error code: 400 - {'error': {'message': "This model's maximum context length is 300000 tokens. However, your messages resulted in 350564 tokens (100 in the messages, 350464 in the functions). Please reduce the length of the messages or functions.", 'type': 'invalid_request_error', 'param': 'messages', 'code': 'context_length_exceeded'}}Error code: 400 - {'error': {'message': "Invalid 'tools[0].function.description': string too long. Expected a string with maximum length 1048576, but got a string with length 2778531 instead.", 'type': 'invalid_request_error', 'param': 'tools[0].function.description', 'code': 'string_above_max_length'}}
Voici le message d’erreur de l’API Réponses :
Error code: 500 - {'error': {'message': 'The server had an error processing your request. Sorry about that! You can retry your request, or contact us through an Azure support request at: https://go.microsoft.com/fwlink/?linkid=2213926 if you keep seeing this error. (Please include the request ID d2008353-291d-428f-adc1-defb5d9fb109 in your email.)', 'type': 'server_error', 'param': None, 'code': None}}
| ID de modèle | Descriptif | Fenêtre contextuelle | Jetons de sortie maximale | Données d’entraînement (jusqu’à) |
|---|---|---|---|---|
gpt-4.1 (2025-04-14) |
- Entrée de texte et d’image - Sortie de texte - API de saisie semi-automatique de conversation - API Responses -Streaming - Appel de fonction - Sorties structurées (achèvements de conversation) |
- 1 047 576 (non disponible) - 128 000 (déploiements managés standard et provisionnés) - 300 000 (déploiements par lots) |
32,768 | 31 mai 2024 |
gpt-4.1-mini (2025-04-14) |
- Entrée de texte et d’image - Sortie de texte - API de saisie semi-automatique de conversation - API Responses -Streaming - Appel de fonction - Sorties structurées (achèvements de conversation) |
- 1 047 576 (non disponible) - 128 000 (déploiements managés standard et provisionnés) - 300 000 (déploiements par lots) |
32,768 | 31 mai 2024 |
modèles de la série O
Les modèles de série o OpenAI Azure sont conçus pour aborder les tâches de raisonnement et de résolution des problèmes avec une concentration et une capacité accrues. Ces modèles passent plus de temps à traiter et à comprendre la requête de l’utilisateur(-trice), ce qui les rend exceptionnellement forts dans des domaines tels que la science, le codage et les mathématiques par rapport aux itérations précédentes.
| ID de modèle | Descriptif | Nbre maximal de demandes (jetons) | Données d’entraînement (jusqu’à) |
|---|---|---|---|
o3-mini (2025-01-31) |
-
Capacités de raisonnement améliorées. - Sorties structurées. - Traitement de texte uniquement. - Fonctions et outils. |
Entrée : 200 000 Sortie : 100 000 |
Octobre 2023 |
Pour en savoir plus sur les modèles de série o avancés, consultez Commencer avec des modèles de raisonnement.
Disponibilité de la région
| Modèle | Région |
|---|---|
o3-mini |
Consultez la table des modèles. |
GPT-4o
GPT-4o intègre du texte et des images dans un modèle unique, ce qui lui permet de gérer plusieurs types de données simultanément. Cette approche multimodale améliore l'exactitude et la réactivité des interactions homme-machine. GPT-4o correspond à GPT-4 Turbo en texte et en codage en anglais tout en offrant des performances supérieures dans les tâches et les tâches de vision non-anglaises, en définissant de nouveaux benchmarks pour les fonctionnalités d’IA.
| ID de modèle | Descriptif | Nbre maximal de demandes (jetons) | Données d’entraînement (jusqu’à) |
|---|---|---|---|
gpt-4o (2024-11-20) GPT-4o (Omni) |
- Sorties structurées. - Traitement du texte et de l’image. - Mode JSON. - Appel de fonction parallèle. - Précision et réactivité améliorées. - Parité avec le texte anglais et les tâches de codage par rapport à GPT-4 Turbo avec Vision. - Performances supérieures dans les langues non anglaises et dans les tâches de vision. - Capacité d’écriture créative améliorée. |
Entrée : 128 000 Sortie : 16 384 |
Octobre 2023 |
Embeddings
text-embedding-3-large est le modèle incorporé le plus récent et le plus capable. Vous ne pouvez pas effectuer de mise à niveau entre les modèles d’incorporation. Pour passer de l’utilisation text-embedding-ada-002 à text-embedding-3-large, vous devez générer de nouvelles incorporations.
text-embedding-3-largetext-embedding-3-smalltext-embedding-ada-002
Les rapports d'OpenAI montrent que les tests indiquent que les modèles d'incorporation de la troisième génération, à la fois grands et petits, offrent de meilleures performances de récupération multi-langue moyennes avec le benchmark MIRACL. Ils conservent toujours les performances des tâches en anglais avec le benchmark MTEB.
| Benchmark d’évaluation | text-embedding-ada-002 |
text-embedding-3-small |
text-embedding-3-large |
|---|---|---|---|
| Moyenne MIRACL | 31.4 | 44.0 | 54.9 |
| Moyenne MTEB | 61.0 | 62.3 | 64.6 |
Les modèles d’incorporation de troisième génération prennent en charge la réduction de la taille de l’incorporation via un nouveau paramètre dimensions. En règle générale, les incorporations plus volumineuses sont plus coûteuses du point de vue calcul, mémoire et storage. Lorsque vous pouvez ajuster le nombre de dimensions, vous bénéficiez d’un meilleur contrôle sur les coûts et les performances globaux. Le paramètre dimensions n'est pas pris en charge dans toutes les versions de la bibliothèque openAI 1.x Python. Pour tirer parti de ce paramètre, nous vous recommandons de procéder à la mise à niveau vers la dernière version : pip install openai --upgrade.
Les tests de référence MTEB d’OpenAI ont constaté que même lorsque les dimensions du troisième modèle de génération sont réduites à moins de 1 536 dimensions de text-embeddings-ada-002, les performances restent légèrement meilleures.
Tableau récapitulatif des modèles et de leur disponibilité par région
Modèles par type de déploiement
Azure OpenAI fournit aux clients des choix sur la structure d’hébergement qui correspond à leurs modèles d’entreprise et d’utilisation. Le service propose deux principaux types de déploiement :
- Standard : dispose d’une option de déploiement de zone de données USGov, routage du trafic au sein de Azure Government pour fournir un débit plus élevé.
- Provisioned : offre également une option de déploiement de zone de données, permettant aux clients d’acheter et de déployer des unités de débit approvisionnées sur Azure Government infrastructure.
Tous les déploiements peuvent effectuer exactement les mêmes opérations d’inférence, mais la facturation, la mise à l’échelle et les performances sont sensiblement différentes. Pour en savoir plus sur Azure types de déploiement OpenAI, consultez notre guide Guide des types de déploiement.
Disponibilité du modèle standard de zone de données
| Région | gpt-5.1, 2025-11-13 | gpt-4.1, 2025-04-14 | gpt-4.1-mini, 2025-04-14 | o3-mini, 2025-01-31 | gpt-4o, 2024-11-20 | text-embedding-ada-002, 2 | text-embedding-3-large, 1 | text-embedding-3-small, 1 |
|---|---|---|---|---|---|---|---|---|
| usgovarizona | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | - |
| usgovvirginia | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | - |
Modèles Incorporations
Ces modèles ne peuvent être utilisés qu’avec les demandes d’API d’incorporation.
Note
text-embedding-3-large est le modèle incorporé le plus récent et le plus capable. Vous ne pouvez pas effectuer de mise à niveau entre les modèles incorporés. Pour migrer à partir de l’utilisation text-embedding-ada-002, text-embedding-3-large vous devez générer de nouvelles incorporations.
| ID de modèle | Nbre maximal de demandes (jetons) | Dimensions de sortie | Données d’entraînement (jusqu’à) |
|---|---|---|---|
text-embedding-ada-002 (version 2) |
8,192 | 1,536 | Septembre 2021 |
text-embedding-ada-002 (version 1) |
2,046 | 1,536 | Septembre 2021 |
text-embedding-3-large |
8,192 | 3,072 | Septembre 2021 |
text-embedding-3-small |
8,192 | 1,536 | Septembre 2021 |
Note
Lorsque vous envoyez un tableau d’entrées pour l’incorporation, le nombre maximal d’éléments d’entrée dans le tableau par appel au point de terminaison d’incorporation est de 2 048.
Mise hors service du modèle
Dans certains cas, les modèles sont mis hors service dans Azure Government version antérieure ou ultérieure au cloud commercial. Pour obtenir les informations les plus récentes sur les mises hors service des modèles, reportez-vous au guide de mise hors service des modèles.
| Modèle | Version | Régime de retraite publique | Azure Government Plan |
|---|---|---|---|
| gpt-4o | 0513 | 3/31/2026 pour la norme régionale. 10/1/2026 pour DataZone et PTU. | 31/03/2026 pour tous les types de déploiement. |
| gpt-4o-mini | 0718 | 3/31/2026 pour la norme régionale. 10/1/2026 pour DataZone et PTU. | 31/03/2026 pour tous les types de déploiement. |