Modèles Azure OpenAI Service
Azure OpenAI Service est fourni avec par un ensemble diversifié de modèles proposant des fonctionnalités variées et des prix différents. La disponibilité du modèle varie selon la région et le cloud. Pour la disponibilité du modèle Azure Government, consultez Azure Government OpenAI Service.
Modèles | Description |
---|---|
o1-preview et o1-mini | Modèles d’accès limité, spécifiquement conçus pour traiter les tâches de raisonnement et de résolution des problèmes avec un focus et une capacité accrus. |
GPT-4o et GPT-4o mini et GPT-4 Turbo | Les derniers modèles Azure OpenAI les plus capables avec des versions multimodales qui peuvent accepter du texte et des images comme entrée. |
GPT-4o-Realtime-Preview | Un modèle GPT-4o qui prend en charge les interactions conversationnelles à faible latence, « speech in, speech out ». |
GPT-4 | Ensemble de modèles qui améliorent GPT-3.5 et qui permettent de comprendre et de générer du langage naturel et du code. |
GPT-3.5 | Ensemble de modèles qui améliorent GPT-3 et qui permettent de comprendre et de générer du langage naturel et du code. |
Incorporations | Ensemble de modèles qui permettent de convertir du texte en forme vectorielle numérique pour faciliter la similarité du texte. |
DALL-E | Série de modèles qui peuvent générer des images originales en provenance d’un langage naturel. |
Chuchoter | Une série de modèles en préversion qui peuvent transcrire et traduire la reconnaissance vocale. |
Synthèse vocale (Préversion) | Série de modèles en préversion qui peuvent convertir du texte par synthèse vocale. |
Accès limité aux modèles o1-preview et o1-mini
Les modèles azure OpenAI o1-preview
et o1-mini
sont spécifiquement conçus pour traiter les tâches de raisonnement et de résolution des problèmes avec un focus et une capacité accrus. Ces modèles passent plus de temps à traiter et à comprendre la requête de l’utilisateur(-trice), ce qui les rend exceptionnellement forts dans des domaines tels que la science, le codage et les mathématiques par rapport aux itérations précédentes.
ID de modèle | Description | Nbre max. de requêtes (jetons) | Données d’entraînement (date max.) |
---|---|---|---|
o1-preview (12-09-2024) |
Le modèle le plus capable dans la série o1, offrant des capacités de raisonnement améliorées. | Entrée : 128 000 Sortie : 32 768 |
Oct. 2023 |
o1-mini (12-09-2024) |
Une option plus rapide et plus économique dans la série o1, idéale pour coder des tâches nécessitant une vitesse et une consommation de ressources plus faible. | Entrée : 128 000 Sortie : 65 536 |
Oct. 2023 |
Disponibilité
Les modèles o1-preview
et o1-mini
sont désormais disponibles pour l’accès aux API et le déploiement de modèles. L’inscription est requise et l’accès est accordé en fonction des critères d’éligibilité de Microsoft.
Demander l’accès : application de modèle d’accès limité
Une fois l’accès accordé, vous devrez créer un déploiement pour chaque modèle.
Prise en charge des API
La prise en charge des modèles de série o1 a été ajoutée dans la version 2024-09-01-preview
de l’API.
Le paramètre max_tokens
a été déconseillé et remplacé par le nouveau paramètre max_completion_tokens
. Les modèles de série o1 fonctionnent uniquement avec le paramètre max_completion_tokens
.
Utilisation
Ces modèles ne prennent actuellement pas en charge le même ensemble de paramètres que les autres modèles qui utilisent l’API de saisie semi-automatique de conversation. Seul un sous-ensemble très limité est actuellement pris en charge. Les paramètres courants tels que temperature
, top_p
, ne sont donc pas disponibles et leur inclusion entraîne l’échec de votre requête. Les modèles o1-preview
et o1-mini
n’acceptent pas non plus le rôle de message système dans le cadre du tableau de messages.
Vous devrez peut-être mettre à niveau votre version de la bibliothèque Python OpenAI pour tirer parti du nouveau paramètre max_completion_tokens
.
pip install openai --upgrade
Si vous utilisez pour la première fois Microsoft Entra ID pour l’authentification, consultez Comment configurer Azure OpenAI Service avec l’authentification Microsoft Entra ID.
from openai import AzureOpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
token_provider = get_bearer_token_provider(
DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)
client = AzureOpenAI(
azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT"),
azure_ad_token_provider=token_provider,
api_version="2024-09-01-preview"
)
response = client.chat.completions.create(
model="o1-preview-new", # replace with the model deployment name of your o1-preview, or o1-mini model
messages=[
{"role": "user", "content": "What steps should I think about when writing my first Python API?"},
],
max_completion_tokens = 5000
)
print(response.model_dump_json(indent=2))
Disponibilité dans les régions
Disponible pour le déploiement standard et global standard dans les régions USA Est, USA Est 2, USA Centre Nord, USA Centre Sud, Suède Centre, USA Ouest et USA Ouest 3 pour les clients approuvés.
GPT-4o-Realtime-Preview
Le modèle gpt-4o-realtime-preview
fait partie de la famille de modèles GPT-4o et prend en charge les interactions conversationnelles à faible latence « speech in, speech out ». GPT-4o audio est conçu pour gérer les interactions conversationnelles en temps réel et à faible latence, ce qui en fait un outil idéal pour les agents de support, les assistants, les traducteurs et dans d'autres cas d'utilisation qui nécessitent des échanges très réactifs avec un utilisateur.
GPT-4o audio est disponible dans les régions USA Est 2 (eastus2
) et Suède Centre (swedencentral
). Pour utiliser GPT-4o audio, vous devez créer ou utiliser une ressource existante dans l’une des régions prises en charge.
Une fois votre ressource créée, vous pouvez déployer le modèle GPT-4o audio. Si vous effectuez un déploiement programmatique, le nom de modèle est gpt-4o-realtime-preview
. Pour plus d’informations sur l’utilisation de GPT-4o audio, consultez la documentation GPT-4o audio.
Les détails concernant les jetons de requête maximum et les données d’entraînement sont disponibles dans le tableau suivant.
ID de modèle | Description | Nbre max. de requêtes (jetons) | Données d’entraînement (date max.) |
---|---|---|---|
gpt-4o-realtime-preview (préversion 01-10-2024) GPT-4o audio |
Modèle audio pour le traitement audio en temps réel | Entrée : 128 000 Sortie : 4 096 |
Oct. 2023 |
GPT-4o et GPT-4 Turbo
GPT-4o intègre du texte et des images dans un modèle unique, ce qui lui permet de gérer simultanément plusieurs types de données. Cette approche multimodale améliore l'exactitude et la réactivité des interactions homme-machine. GPT-4o correspond à GPT-4 Turbo en texte et en codage en anglais, tout en offrant des performances supérieures dans les autres langues et dans les tâches de vision, en définissant de nouveaux points de référence pour les fonctionnalités d’IA.
Comment faire pour accéder aux modèles GPT-4o et GPT-4o mini ?
GPT-4o et GPT-4o mini sont disponibles pour un modèle de déploiement standard et global-standard.
Vous devez créer ou utiliser une ressource existante dans une région standard prise en charge ou globale standard dans laquelle le modèle est disponible.
Une fois votre ressource créée, vous pouvez déployer les modèles GPT-4o. Si vous effectuez un déploiement programmatique, les noms de model sont :
gpt-4o
Version2024-08-06
gpt-4o
, Version2024-05-13
gpt-4o-mini
Version2024-07-18
GPT-4 Turbo
GPT-4 Turbo est un grand modèle multimodal (acceptant des entrées de texte ou d’image et générant du texte) qui peut résoudre des problèmes difficiles avec une plus grande précision que l’un des modèles précédents d’OpenAI. Comme GPT-3.5 Turbo et des modèles GPT-4 plus anciens, GPT-4 Turbo est optimisé pour la conversation, mais fonctionne bien pour les tâches d’achèvement classiques.
La dernière version en disponibilité générale de GPT-4 Turbo est :
gpt-4
Version :turbo-2024-04-09
Il s’agit du remplacement des modèles en préversion suivants :
gpt-4
Version :1106-Preview
gpt-4
Version :0125-Preview
gpt-4
Version :vision-preview
Différences entre les modèles OpenAI et OpenAI GPT-4 Turbo GA
- La version d’OpenAI du dernier modèle
0409
Turbo prend en charge le mode JSON et l’appel de fonction pour toutes les requêtes d’inférence. - La version d’Azure OpenAI du dernier
turbo-2024-04-09
ne prend actuellement pas en charge l’utilisation du mode JSON et l’appel de fonction lors de l’exécution de requêtes d’inférence avec une entrée d’image (vision). Les requêtes d’entrée basées sur du texte (requêtes sansimage_url
et images incluses) prennent par contre en charge le mode JSON et l’appel de fonction.
Différences par rapport à gpt-4 vision-preview
- L’intégration des améliorations de Vision propres à Azure AI à GPT-4 Turbo avec Vision n’est pas prise en charge pour
gpt-4
Version :turbo-2024-04-09
. Cela inclut la reconnaissance optique de caractères (OCR), l’ancrage d’objets, les invites vidéo et la gestion améliorée de vos données avec des images.
Important
Les fonctionnalités en préversion des améliorations de Vision, notamment la reconnaissance optique de caractères (OCR), la mise au sol des objets, les invites vidéo, seront supprimées et ne seront plus disponibles une fois la version gpt-4
: vision-preview
mise à niveau vers turbo-2024-04-09
. Si vous utilisez actuellement l’une de ces fonctionnalités en préversion, cette mise à niveau automatique du modèle sera un changement cassant.
Disponibilité managée approvisionnée de GPT-4 Turbo
gpt-4
Version :turbo-2024-04-09
est disponible pour les déploiements standard et approvisionnés. Actuellement, la version approvisionnée de ce modèle ne prend pas en charge les requêtes d’inférence d’image/vision. Les déploiements approvisionnés de ce modèle acceptent uniquement les entrées de texte. Les déploiements de modèles standard acceptent les requêtes d’inférence de texte et d’image/vision.
Déploiement de la disponibilité générale de GPT-4 Turbo avec Vision
Pour déployer le modèle en disponibilité générale à partir de l’interface utilisateur Studio, sélectionnez GPT-4
, puis choisissez la version turbo-2024-04-09
du menu de la liste déroulante. Le quota par défaut pour le modèle gpt-4-turbo-2024-04-09
est le même que le quota actuel pour GPT-4-Turbo. Voir les limites de quota régionales.
GPT-4
GPT-4 est le prédécesseur de GPT-4 Turbo. Les modèles GPT-4 et GPT-4 Turbo portent le nom de modèle de base de gpt-4
. Vous pouvez distinguer les modèles GPT-4 et GPT-4 Turbo en examinant la version de modèle.
gpt-4
Version0314
gpt-4
Version0613
gpt-4-32k
Version0613
Vous pouvez voir la longueur du contexte de jeton prise en charge par chaque modèle dans le tableau récapitulatif du modèle.
Modèles GPT-4 et GPT-4 Turbo
- Ces modèles peuvent être utilisés uniquement avec l’API d’achèvement de conversation.
Consultez les versions de modèle pour en savoir plus sur la façon dont Azure OpenAI Service gère les mises à niveau des versions de modèle et travailler avec des modèles pour découvrir comment afficher et configurer les paramètres de version du modèle de vos déploiements GPT-4.
ID de modèle | Description | Nbre max. de requêtes (jetons) | Données d’entraînement (date max.) |
---|---|---|---|
gpt-4o (2024-08-06) GPT-4o (Omni) |
Dernier grand modèle en disponibilité générale - Sorties structurées - Texte, traitement d’images – Mode JSON – Appel de fonction parallèle - Précision et réactivité améliorées - Parité avec le texte anglais et les tâches de codage par rapport à GPT-4 Turbo avec Vision - Performances supérieures dans les langues non anglaises et dans les tâches de vision |
Entrée : 128 000 Sortie : 16 384 |
Oct. 2023 |
gpt-4o-mini (2024-07-18) GPT-4o mini |
Dernier petit modèle en disponibilité générale - Modèle rapide et peu coûteux, idéal pour remplacer les modèles de série GPT-3.5 Turbo. - Texte, traitement d’images – Mode JSON – Appel de fonction parallèle |
Entrée : 128 000 Sortie : 16 384 |
Oct. 2023 |
gpt-4o (2024-05-13) GPT-4o (Omni) |
Texte, traitement d’images – Mode JSON – Appel de fonction parallèle - Précision et réactivité améliorées - Parité avec le texte anglais et les tâches de codage par rapport à GPT-4 Turbo avec Vision - Performances supérieures dans les langues non anglaises et dans les tâches de vision |
Entrée : 128 000 Sortie : 4 096 |
Oct. 2023 |
gpt-4 (turbo-2024-04-09) GPT-4 Turbo avec Vision |
Nouveau modèle en disponibilité générale – Remplacement de tous les précédents modèles GPT-4 en préversion ( vision-preview , 1106-Preview , 0125-Preview ). - La disponibilité des fonctionnalités est actuellement différente en fonction de la méthode d’entrée et du type de déploiement. |
Entrée : 128 000 Sortie : 4 096 |
Déc. 2023 |
gpt-4 (0125-Preview)*Préversion de GPT-4 Turbo |
Modèle en préversion – Remplace 1106-Preview – Meilleures performances de génération de code – Réduit les cas où le modèle ne termine pas une tâche – Mode JSON – Appel de fonction parallèle – Sortie reproductible (préversion) |
Entrée : 128 000 Sortie : 4 096 |
Déc. 2023 |
gpt-4 (vision-préversion)GPT-4 Turbo avec Vision Préversion |
Modèle en préversion – Accepte l’entrée de texte et d’image. – Prend en charge les améliorations – Mode JSON – Appel de fonction parallèle – Sortie reproductible (préversion) |
Entrée : 128 000 Sortie : 4 096 |
avril 2023 |
gpt-4 (1106-Preview)Préversion de GPT-4 Turbo |
Modèle en préversion – Mode JSON – Appel de fonction parallèle – Sortie reproductible (préversion) |
Entrée : 128 000 Sortie : 4 096 |
avril 2023 |
gpt-4-32k (0613) |
Modèle plus ancien en disponibilité générale – Appel de fonction de base avec des outils |
32,768 | Septembre 2021 |
gpt-4 (0613) |
Modèle plus ancien en disponibilité générale – Appel de fonction de base avec des outils |
8 192 | Septembre 2021 |
gpt-4-32k (0314) |
Modèle plus ancien en disponibilité générale - Informations sur la mise hors service |
32,768 | Septembre 2021 |
gpt-4 (0314) |
Modèle plus ancien en disponibilité générale - Informations sur la mise hors service |
8 192 | Septembre 2021 |
Attention
Nous vous déconseillons d’utiliser des modèles de préversion en production. Nous allons mettre à niveau tous les déploiements de modèles en préversion vers les versions ultérieures en préversion ou vers la dernière version stable/en disponibilité générale. La préversion désignée des modèles ne suit pas le cycle de vie du modèle Azure OpenAI standard.
- GPT-4 version 0125-preview est une version mise à jour de la préversion GPT-4 Turbo précédemment publiée en tant que version 1106-preview.
- GPT-4 version 0125-preview effectue des tâches telles que la génération de code de manière plus complète que la version gpt-4-1106-preview. En conséquence, les clients peuvent trouver que, selon la tâche, GPT-4-0125-preview génère plus de sortie que gpt-4-1106-preview. Nous recommandons aux clients de comparer les sorties du nouveau modèle. GPT-4-0125-preview corrige également les bogues de gpt-4-1106-preview en proposant la gestion UTF-8 pour les autres langues que l'anglais.
- La version GPT-4
turbo-2024-04-09
est la dernière version en disponibilité générale et remplace0125-Preview
,1106-preview
etvision-preview
.
Important
Les versions GPT-4 (gpt-4
) 1106-Preview
, 0125-Preview
et vision-preview
seront mises à niveau avec une version stable de gpt-4
à l’avenir.
- Les déploiements des
gpt-4
versions,1106-Preview
,0125-Preview
, etvision-preview
définis sur « Mise à jour automatique par défaut » et « Mise à niveau en cas d’expiration » commenceront à être mis à niveau après la publication de la version stable. Pour chaque déploiement, une mise à niveau de la version du modèle a lieu sans interruption du service pour les appels d'API. Les mises à jour sont échelonnées par région et le processus complet de mise à jour devrait prendre 2 semaines. - Les déploiements des
gpt-4
versions1106-Preview
,0125-Preview
, etvision-preview
définis sur « Aucune mise à niveau automatique » ne seront pas mis à niveau et cesseront de fonctionner lorsque la préversion est mise à niveau dans la région. Pour plus d’informations sur le calendrier de mise à niveau, consultez Dépréciations et mises hors service des modèles Azure OpenAI.
GPT-3.5
Les modèles GPT-3.5 peuvent comprendre et générer un langage naturel ou du code. GPT-3.5 Turbo s’inscrit comme le modèle le plus performant et le plus économique de la famille GPT-3.5. Il a été optimisé pour la conversation et fonctionne également bien pour les tâches traditionnelles de saisie semi-automatique. GPT-3.5 Turbo est disponible pour une utilisation avec l’API de saisies semi-automatiques des conversations. GPT-3.5 Turbo Instruct offre des fonctionnalités similaires à text-davinci-003
à l’aide de l’API de saisie semi-automatique au lieu de l’API de saisies semi-automatiques des conversations. Nous recommandons d’utiliser GPT-3.5 Turbo et GPT-3.5 Turbo Instruct plutôt que les modèles GPT-3.5 et GPT-3 hérités.
ID de modèle | Description | Nbre max. de requêtes (jetons) | Données d’entraînement (date max.) |
---|---|---|---|
gpt-35-turbo (0125) NOUVEAU |
Dernier modèle en disponibilité générale – Mode JSON – Appel de fonction parallèle – Sortie reproductible (préversion) – Précision plus élevée pour répondre dans les formats demandés. – Correction d’un bogue qui a provoqué un problème d’encodage de texte pour les appels de fonction de langue autre que l’anglais. |
Entrée : 16 385 Sortie : 4 096 |
Septembre 2021 |
gpt-35-turbo (1106) |
Modèle plus ancien en disponibilité générale – Mode JSON – Appel de fonction parallèle – Sortie reproductible (préversion) |
Entrée : 16 385 Sortie : 4 096 |
Septembre 2021 |
gpt-35-turbo-instruct (0914) |
Point de terminaison d’achèvement uniquement – Remplacement pour des modèles de saisie semi-automatique hérités |
4 097 | Septembre 2021 |
gpt-35-turbo-16k (0613) |
Modèle plus ancien en disponibilité générale – Appel de fonction de base avec des outils |
16 384 | Septembre 2021 |
gpt-35-turbo (0613) |
Modèle plus ancien en disponibilité générale – Appel de fonction de base avec des outils |
4 096 | Septembre 2021 |
gpt-35-turbo 1 (0301) |
Modèle plus ancien en disponibilité générale - Informations sur la mise hors service |
4 096 | Septembre 2021 |
Pour en savoir plus les interactions avec GPT-3.5 Turbo et l’API de saisie semi-automatique de conversation, consultez la procédure détaillée.
1 Ce modèle accepte 4 096 jetons > des requêtes. Il n’est pas recommandé de dépasser la limite de 4 096 jetons d’entrée, car la version la plus récente du modèle est limitée à 4 096 jetons. Si vous rencontrez des problèmes lorsque vous excédez 4 096 jetons d’entrée avec ce modèle, cette configuration n’est pas officiellement prise en charge.
Incorporations
text-embedding-3-large
est le modèle incorporé le plus récent et le plus capable. La mise à niveau entre les modèles d’incorporation n’est pas possible. Pour passer de l’utilisation de text-embedding-ada-002
à text-embedding-3-large
vous devez générer de nouvelles incorporations.
text-embedding-3-large
text-embedding-3-small
text-embedding-ada-002
Dans les tests, OpenAI signale à la fois les modèles d’incorporation de grande et petite troisième génération offrent de meilleures performances de récupération multi-langues moyennes avec le point de référence MIRACL tout en conservant les performances des tâches anglaises avec le point de référence MTEB.
Benchmark d’évaluation | text-embedding-ada-002 |
text-embedding-3-small |
text-embedding-3-large |
---|---|---|---|
Moyenne MIRACL | 31,4 | 44.0 | 54.9 |
Moyenne MTEB | 61,0 | 62,3 | 64.6 |
Les modèles d’incorporation de troisième génération prennent en charge la réduction de la taille de l’incorporation via un nouveau paramètre dimensions
. En règle générale, les incorporations plus volumineuses sont plus coûteuses du point de vue du calcul, de la mémoire et du stockage. La possibilité d'ajuster le nombre de dimensions permet de mieux contrôler le coût global et les performances. Le paramètre dimensions
n’est pas pris en charge dans toutes les versions de la bibliothèque Python OpenAI 1.x. Pour tirer parti de ce paramètre, nous vous recommandons de procéder à la mise à niveau vers la dernière version : pip install openai --upgrade
.
Le test de référence MTEB d’OpenAI a révélé que même lorsque les dimensions du troisième modèle de génération sont réduites à moins de text-embeddings-ada-002
1 536 dimensions, les performances restent légèrement meilleures.
DALL-E
Les modèles DALL-E génèrent des images à partir d'invites textuelles fournies par l'utilisateur. DALL-E 3 est généralement disponible pour être utilisé avec les API REST. DALL-E 2 et DALL-E 3 avec les SDK clients sont en préversion.
Whisper
Les modèles Whisper peuvent être utilisés pour la reconnaissance vocale.
Vous pouvez également utiliser le modèle Whisper via l’API de transcription par lots d’Azure AI Speech. Découvrez Qu'est-ce que le modèle Whisper ? pour en savoir plus sur quand utiliser Azure AI Speech par rapport à Azure OpenAI Service.
Synthèse vocale (Préversion)
Les modèles de synthèse vocale OpenAI, actuellement en préversion, peuvent être utilisés pour convertir du texte par synthèse vocale.
Vous pouvez également utiliser les voix de synthèse vocale OpenAI via Azure AI Speech. Pour plus d’informations, consultez le guide Synthèse vocale OpenAI via Azure OpenAI Service ou via Azure AI Speech.
Tableau récapitulatif des modèles et de leur disponibilité par région
Modèles par type de déploiement
Azure OpenAI permet aux clients de choisir la structure d’hébergement qui correspond à leurs modèles d’entreprise et d’utilisation. Le service propose deux principaux types de déploiement :
- Standard est proposé avec une option de déploiement mondial qui permet d’acheminer le trafic à l’échelle mondiale pour fournir un débit plus élevé.
- Approvisionné est également offert avec une option de déploiement global, ce qui permet aux utilisateurs d’acheter et de déployer des unités de débit approvisionnées sur l’ensemble de l’infrastructure globale Azure.
Tous les déploiements peuvent effectuer exactement les mêmes opérations d’inférence, mais la facturation, la mise à l’échelle et les performances sont sensiblement différentes. Pour découvrir plus d’informations sur les types de déploiement Azure OpenAI, consultez notre guide sur les types de déploiement.
- Standard global
- Managé approvisionné global
- Lot global
- Standard de zone de données
- Standard
- Managé approvisionné
Disponibilité des modèles standard dans le monde
Région | o1-preview, 2024-09-12 | o1-mini, 2024-09-12 | gpt-4o, 2024-05-13 | gpt-4o, 2024-08-06 | gpt-4o-mini, 2024-07-18 | gpt-4o-realtime-preview, 2024-10-01 | gpt-4, turbo-2024-04-09 |
---|---|---|---|---|---|---|---|
australiaeast | - | - | ✅ | - | ✅ | - | ✅ |
brazilsouth | - | - | ✅ | - | ✅ | - | ✅ |
canadaeast | - | - | ✅ | - | ✅ | - | ✅ |
eastus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
eastus2 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
francecentral | - | - | ✅ | - | ✅ | - | ✅ |
germanywestcentral | - | - | ✅ | - | ✅ | - | ✅ |
japaneast | - | - | ✅ | - | ✅ | - | ✅ |
KoreaCentral | - | - | ✅ | - | ✅ | - | ✅ |
northcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
norwayeast | - | - | ✅ | - | ✅ | - | ✅ |
polognecentre | - | - | ✅ | - | ✅ | - | ✅ |
southafricanorth | - | - | ✅ | - | ✅ | - | ✅ |
southcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
southindia | - | - | ✅ | - | ✅ | - | ✅ |
spaincentral | - | - | ✅ | ✅ | ✅ | - | ✅ |
centre de la suède | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
suisse nord | - | - | ✅ | - | ✅ | - | ✅ |
uaenorth | - | - | ✅ | - | ✅ | - | ✅ |
uksouth | - | - | ✅ | - | ✅ | - | ✅ |
westeurope | - | - | ✅ | - | ✅ | - | ✅ |
westus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
westus3 | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
Ce tableau n’inclut pas les informations de disponibilité régionale de réglage précis. Pour plus d’informations, consultez la section sur le réglage précis.
Modèles standard par point de terminaison
- Saisies semi-automatiques de conversation
- Incorporations
- Génération d’images
- Audio
- Saisies semi-automatiques (héritées)
Complétions de conversation
Région | o1-preview, 2024-09-12 | o1-mini, 2024-09-12 | gpt-4o, 2024-05-13 | gpt-4o, 2024-08-06 | gpt-4o-mini, 2024-07-18 | gpt-4, 0613 | gpt-4, 1106-Preview | gpt-4, 0125-Preview | gpt-4, vision-preview | gpt-4, turbo-2024-04-09 | gpt-4-32k, 0613 | gpt-35-turbo, 0301 | gpt-35-turbo, 0613 | gpt-35-turbo, 1106 | gpt-35-turbo, 0125 | gpt-35-turbo-16k, 0613 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
australiaeast | - | - | - | - | - | ✅ | ✅ | - | ✅ | - | ✅ | - | ✅ | ✅ | - | ✅ |
canadaeast | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | - | ✅ | ✅ | ✅ | ✅ |
eastus | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | ✅ | ✅ | - | ✅ | ✅ |
eastus2 | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | - | ✅ | - | - | ✅ | - | ✅ | ✅ |
francecentral | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | ✅ | ✅ | ✅ | - | ✅ |
japaneast | - | - | - | - | - | - | - | - | ✅ | - | - | - | ✅ | - | ✅ | ✅ |
northcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | - | ✅ | - | ✅ | ✅ |
norwayeast | - | - | - | - | - | - | ✅ | - | - | - | - | - | - | - | - | - |
southcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | ✅ | - | - | ✅ | - |
southindia | - | - | - | - | - | - | ✅ | - | - | - | - | - | - | ✅ | - | - |
centre de la suède | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | ✅ | ✅ | - | ✅ | ✅ | - | ✅ |
suisse nord | - | - | - | - | - | ✅ | - | - | ✅ | - | ✅ | - | ✅ | - | - | ✅ |
uksouth | - | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | ✅ | ✅ | ✅ | ✅ |
westeurope | - | - | - | - | - | - | - | - | - | - | - | ✅ | - | - | - | - |
westus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | ✅ | ✅ | - | - | - | ✅ | ✅ | - |
westus3 | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | - | ✅ | - | - | - | - | ✅ | - |
Disponibilité du modèle GPT-4 et GPT-4 Turbo
Accès de clients sélectionnés
Outre les régions ci-dessus qui sont disponibles pour tous les clients Azure OpenAI, certains clients préexistants sélectionnés ont été autorisés à accéder aux versions de GPT-4 dans des régions supplémentaires :
Modèle | Région |
---|---|
gpt-4 (0314) gpt-4-32k (0314) |
USA Est France Centre États-Unis - partie centrale méridionale Sud du Royaume-Uni |
gpt-4 (0613) gpt-4-32k (0613) |
USA Est USA Est 2 Japon Est Sud du Royaume-Uni |
Modèles GPT-3.5
Consultez les versions de modèle pour en savoir plus sur la façon dont Azure OpenAI Service gère les mises à niveau des versions de modèle et travailler avec des modèles pour découvrir comment afficher et configurer les paramètres de version du modèle de vos déploiements GPT-3.5 Turbo.
Réglage des modèles
Remarque
gpt-35-turbo
- Le réglage fin de ce modèle est limité à un sous-ensemble de régions et n'est pas disponible dans toutes les régions où le modèle de base est disponible.
Les régions prises en charge pour le réglage précis peuvent varier si vous utilisez des modèles Azure OpenAI dans un projet AI Studio ou en dehors d’un projet.
ID de modèle | Régions pour l’optimisation | Nbre maximal de demandes (jetons) | Données d’entraînement (date max.) |
---|---|---|---|
babbage-002 |
Centre-Nord des États-Unis Suède Centre Suisse Ouest |
16 384 | Septembre 2021 |
davinci-002 |
Centre-Nord des États-Unis Suède Centre Suisse Ouest |
16 384 | Septembre 2021 |
gpt-35-turbo (0613) |
USA Est 2 Centre-Nord des États-Unis Suède Centre Suisse Ouest |
4 096 | Septembre 2021 |
gpt-35-turbo (1106) |
USA Est 2 Centre-Nord des États-Unis Suède Centre Suisse Ouest |
Entrée : 16 385 Sortie : 4 096 |
Septembre 2021 |
gpt-35-turbo (0125) |
USA Est 2 Centre-Nord des États-Unis Suède Centre Suisse Ouest |
16,385 | Septembre 2021 |
gpt-4 (0613) 1 |
Centre-Nord des États-Unis Suède Centre |
8 192 | Septembre 2021 |
gpt-4o-mini 1 (2024-07-18) |
Centre-Nord des États-Unis Suède Centre |
Entrée : 128 000 Sortie : 16 384 Exemple de contexte d’entraînement : 64 536 |
Oct. 2023 |
gpt-4o 1 (2024-08-06) |
USA Est 2 Centre-Nord des États-Unis Suède Centre |
Entrée : 128 000 Sortie : 16 384 Exemple de contexte d’entraînement : 64 536 |
Oct. 2023 |
1 GPT-4 est actuellement en préversion publique.
Assistants (préversion)
Pour les Assistants, vous avez besoin d’une combinaison d’un modèle et d’une région tous les deux pris en charge. Certains outils et certaines fonctionnalités nécessitent les derniers modèles. Les modèles suivants sont disponibles dans l’API Assistants, le Kit de développement logiciel (SDK) et Azure AI Studio. Le tableau suivant concerne le paiement à l’utilisation. Pour plus d’informations sur la disponibilité des unités de débit provisionnées (PTU), consultez Débit provisionné. Les modèles et les régions répertoriés peuvent être utilisés avec assistants v1 et v2. Vous pouvez utiliser les modèles standard globaux s’ils sont pris en charge dans les régions répertoriées ci-dessous.
Région | gpt-35-turbo (0613) |
gpt-35-turbo (1106) |
fine tuned gpt-3.5-turbo-0125 |
gpt-4 (0613) |
gpt-4 (1106) |
gpt-4 (0125) |
gpt-4o (2024-05-13) |
gpt-4o-mini (2024-07-18) |
---|---|---|---|---|---|---|---|---|
Australie Est | ✅ | ✅ | ✅ | ✅ | ||||
USA Est | ✅ | ✅ | ✅ | ✅ | ||||
USA Est 2 | ✅ | ✅ | ✅ | ✅ | ✅ | |||
France Centre | ✅ | ✅ | ✅ | ✅ | ||||
Japon Est | ✅ | |||||||
Norvège Est | ✅ | |||||||
Suède Centre | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
Sud du Royaume-Uni | ✅ | ✅ | ✅ | ✅ | ||||
USA Ouest | ✅ | ✅ | ✅ | |||||
USA Ouest 3 | ✅ | ✅ |
Mise hors service du modèle
Pour obtenir les informations les plus récentes sur les mises hors service des modèles, reportez-vous au guide de mise hors service des modèles.