Partager via


Modèles Azure OpenAI Service

Azure OpenAI Service est fourni avec par un ensemble diversifié de modèles proposant des fonctionnalités variées et des prix différents. La disponibilité du modèle varie selon la région et le cloud. Pour la disponibilité du modèle Azure Government, consultez Azure Government OpenAI Service.

Modèles Description
o1-preview et o1-mini Modèles d’accès limité, spécifiquement conçus pour traiter les tâches de raisonnement et de résolution des problèmes avec un focus et une capacité accrus.
GPT-4o et GPT-4o mini et GPT-4 Turbo Les derniers modèles Azure OpenAI les plus capables avec des versions multimodales qui peuvent accepter du texte et des images comme entrée.
GPT-4o-Realtime-Preview Un modèle GPT-4o qui prend en charge les interactions conversationnelles à faible latence, « speech in, speech out ».
GPT-4 Ensemble de modèles qui améliorent GPT-3.5 et qui permettent de comprendre et de générer du langage naturel et du code.
GPT-3.5 Ensemble de modèles qui améliorent GPT-3 et qui permettent de comprendre et de générer du langage naturel et du code.
Incorporations Ensemble de modèles qui permettent de convertir du texte en forme vectorielle numérique pour faciliter la similarité du texte.
DALL-E Série de modèles qui peuvent générer des images originales en provenance d’un langage naturel.
Chuchoter Une série de modèles en préversion qui peuvent transcrire et traduire la reconnaissance vocale.
Synthèse vocale (Préversion) Série de modèles en préversion qui peuvent convertir du texte par synthèse vocale.

Accès limité aux modèles o1-preview et o1-mini

Les modèles azure OpenAI o1-preview et o1-mini sont spécifiquement conçus pour traiter les tâches de raisonnement et de résolution des problèmes avec un focus et une capacité accrus. Ces modèles passent plus de temps à traiter et à comprendre la requête de l’utilisateur(-trice), ce qui les rend exceptionnellement forts dans des domaines tels que la science, le codage et les mathématiques par rapport aux itérations précédentes.

ID de modèle Description Nbre max. de requêtes (jetons) Données d’entraînement (date max.)
o1-preview (12-09-2024) Le modèle le plus capable dans la série o1, offrant des capacités de raisonnement améliorées. Entrée : 128 000
Sortie : 32 768
Oct. 2023
o1-mini (12-09-2024) Une option plus rapide et plus économique dans la série o1, idéale pour coder des tâches nécessitant une vitesse et une consommation de ressources plus faible. Entrée : 128 000
Sortie : 65 536
Oct. 2023

Disponibilité

Les modèles o1-preview et o1-mini sont désormais disponibles pour l’accès aux API et le déploiement de modèles. L’inscription est requise et l’accès est accordé en fonction des critères d’éligibilité de Microsoft.

Demander l’accès : application de modèle d’accès limité

Une fois l’accès accordé, vous devrez créer un déploiement pour chaque modèle.

Prise en charge des API

La prise en charge des modèles de série o1 a été ajoutée dans la version 2024-09-01-preview de l’API.

Le paramètre max_tokens a été déconseillé et remplacé par le nouveau paramètre max_completion_tokens. Les modèles de série o1 fonctionnent uniquement avec le paramètre max_completion_tokens.

Utilisation

Ces modèles ne prennent actuellement pas en charge le même ensemble de paramètres que les autres modèles qui utilisent l’API de saisie semi-automatique de conversation. Seul un sous-ensemble très limité est actuellement pris en charge. Les paramètres courants tels que temperature, top_p, ne sont donc pas disponibles et leur inclusion entraîne l’échec de votre requête. Les modèles o1-preview et o1-mini n’acceptent pas non plus le rôle de message système dans le cadre du tableau de messages.

Vous devrez peut-être mettre à niveau votre version de la bibliothèque Python OpenAI pour tirer parti du nouveau paramètre max_completion_tokens.

pip install openai --upgrade

Si vous utilisez pour la première fois Microsoft Entra ID pour l’authentification, consultez Comment configurer Azure OpenAI Service avec l’authentification Microsoft Entra ID.

from openai import AzureOpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)

client = AzureOpenAI(
  azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT"), 
  azure_ad_token_provider=token_provider,
  api_version="2024-09-01-preview"
)

response = client.chat.completions.create(
    model="o1-preview-new", # replace with the model deployment name of your o1-preview, or o1-mini model
    messages=[
        {"role": "user", "content": "What steps should I think about when writing my first Python API?"},
    ],
    max_completion_tokens = 5000

)

print(response.model_dump_json(indent=2))

Disponibilité dans les régions

Disponible pour le déploiement standard et global standard dans les régions USA Est, USA Est 2, USA Centre Nord, USA Centre Sud, Suède Centre, USA Ouest et USA Ouest 3 pour les clients approuvés.

GPT-4o-Realtime-Preview

Le modèle gpt-4o-realtime-preview fait partie de la famille de modèles GPT-4o et prend en charge les interactions conversationnelles à faible latence « speech in, speech out ». GPT-4o audio est conçu pour gérer les interactions conversationnelles en temps réel et à faible latence, ce qui en fait un outil idéal pour les agents de support, les assistants, les traducteurs et dans d'autres cas d'utilisation qui nécessitent des échanges très réactifs avec un utilisateur.

GPT-4o audio est disponible dans les régions USA Est 2 (eastus2) et Suède Centre (swedencentral). Pour utiliser GPT-4o audio, vous devez créer ou utiliser une ressource existante dans l’une des régions prises en charge.

Une fois votre ressource créée, vous pouvez déployer le modèle GPT-4o audio. Si vous effectuez un déploiement programmatique, le nom de modèle est gpt-4o-realtime-preview. Pour plus d’informations sur l’utilisation de GPT-4o audio, consultez la documentation GPT-4o audio.

Les détails concernant les jetons de requête maximum et les données d’entraînement sont disponibles dans le tableau suivant.

ID de modèle Description Nbre max. de requêtes (jetons) Données d’entraînement (date max.)
gpt-4o-realtime-preview (préversion 01-10-2024)
GPT-4o audio
Modèle audio pour le traitement audio en temps réel Entrée : 128 000
Sortie : 4 096
Oct. 2023

GPT-4o et GPT-4 Turbo

GPT-4o intègre du texte et des images dans un modèle unique, ce qui lui permet de gérer simultanément plusieurs types de données. Cette approche multimodale améliore l'exactitude et la réactivité des interactions homme-machine. GPT-4o correspond à GPT-4 Turbo en texte et en codage en anglais, tout en offrant des performances supérieures dans les autres langues et dans les tâches de vision, en définissant de nouveaux points de référence pour les fonctionnalités d’IA.

Comment faire pour accéder aux modèles GPT-4o et GPT-4o mini ?

GPT-4o et GPT-4o mini sont disponibles pour un modèle de déploiement standard et global-standard.

Vous devez créer ou utiliser une ressource existante dans une région standard prise en charge ou globale standard dans laquelle le modèle est disponible.

Une fois votre ressource créée, vous pouvez déployer les modèles GPT-4o. Si vous effectuez un déploiement programmatique, les noms de model sont :

  • gpt-4o Version 2024-08-06
  • gpt-4o, Version 2024-05-13
  • gpt-4o-mini Version 2024-07-18

GPT-4 Turbo

GPT-4 Turbo est un grand modèle multimodal (acceptant des entrées de texte ou d’image et générant du texte) qui peut résoudre des problèmes difficiles avec une plus grande précision que l’un des modèles précédents d’OpenAI. Comme GPT-3.5 Turbo et des modèles GPT-4 plus anciens, GPT-4 Turbo est optimisé pour la conversation, mais fonctionne bien pour les tâches d’achèvement classiques.

La dernière version en disponibilité générale de GPT-4 Turbo est :

  • gpt-4 Version : turbo-2024-04-09

Il s’agit du remplacement des modèles en préversion suivants :

  • gpt-4 Version : 1106-Preview
  • gpt-4 Version : 0125-Preview
  • gpt-4 Version : vision-preview

Différences entre les modèles OpenAI et OpenAI GPT-4 Turbo GA

  • La version d’OpenAI du dernier modèle 0409 Turbo prend en charge le mode JSON et l’appel de fonction pour toutes les requêtes d’inférence.
  • La version d’Azure OpenAI du dernier turbo-2024-04-09 ne prend actuellement pas en charge l’utilisation du mode JSON et l’appel de fonction lors de l’exécution de requêtes d’inférence avec une entrée d’image (vision). Les requêtes d’entrée basées sur du texte (requêtes sans image_url et images incluses) prennent par contre en charge le mode JSON et l’appel de fonction.

Différences par rapport à gpt-4 vision-preview

  • L’intégration des améliorations de Vision propres à Azure AI à GPT-4 Turbo avec Vision n’est pas prise en charge pour gpt-4 Version : turbo-2024-04-09. Cela inclut la reconnaissance optique de caractères (OCR), l’ancrage d’objets, les invites vidéo et la gestion améliorée de vos données avec des images.

Important

Les fonctionnalités en préversion des améliorations de Vision, notamment la reconnaissance optique de caractères (OCR), la mise au sol des objets, les invites vidéo, seront supprimées et ne seront plus disponibles une fois la version gpt-4 : vision-preview mise à niveau vers turbo-2024-04-09. Si vous utilisez actuellement l’une de ces fonctionnalités en préversion, cette mise à niveau automatique du modèle sera un changement cassant.

Disponibilité managée approvisionnée de GPT-4 Turbo

  • gpt-4 Version : turbo-2024-04-09 est disponible pour les déploiements standard et approvisionnés. Actuellement, la version approvisionnée de ce modèle ne prend pas en charge les requêtes d’inférence d’image/vision. Les déploiements approvisionnés de ce modèle acceptent uniquement les entrées de texte. Les déploiements de modèles standard acceptent les requêtes d’inférence de texte et d’image/vision.

Déploiement de la disponibilité générale de GPT-4 Turbo avec Vision

Pour déployer le modèle en disponibilité générale à partir de l’interface utilisateur Studio, sélectionnez GPT-4, puis choisissez la version turbo-2024-04-09 du menu de la liste déroulante. Le quota par défaut pour le modèle gpt-4-turbo-2024-04-09 est le même que le quota actuel pour GPT-4-Turbo. Voir les limites de quota régionales.

GPT-4

GPT-4 est le prédécesseur de GPT-4 Turbo. Les modèles GPT-4 et GPT-4 Turbo portent le nom de modèle de base de gpt-4. Vous pouvez distinguer les modèles GPT-4 et GPT-4 Turbo en examinant la version de modèle.

  • gpt-4 Version 0314
  • gpt-4 Version 0613
  • gpt-4-32k Version 0613

Vous pouvez voir la longueur du contexte de jeton prise en charge par chaque modèle dans le tableau récapitulatif du modèle.

Modèles GPT-4 et GPT-4 Turbo

  • Ces modèles peuvent être utilisés uniquement avec l’API d’achèvement de conversation.

Consultez les versions de modèle pour en savoir plus sur la façon dont Azure OpenAI Service gère les mises à niveau des versions de modèle et travailler avec des modèles pour découvrir comment afficher et configurer les paramètres de version du modèle de vos déploiements GPT-4.

ID de modèle Description Nbre max. de requêtes (jetons) Données d’entraînement (date max.)
gpt-4o (2024-08-06)
GPT-4o (Omni)
Dernier grand modèle en disponibilité générale
- Sorties structurées
- Texte, traitement d’images
– Mode JSON
– Appel de fonction parallèle
- Précision et réactivité améliorées
- Parité avec le texte anglais et les tâches de codage par rapport à GPT-4 Turbo avec Vision
- Performances supérieures dans les langues non anglaises et dans les tâches de vision
Entrée : 128 000
Sortie : 16 384
Oct. 2023
gpt-4o-mini (2024-07-18)
GPT-4o mini
Dernier petit modèle en disponibilité générale
- Modèle rapide et peu coûteux, idéal pour remplacer les modèles de série GPT-3.5 Turbo.
- Texte, traitement d’images
– Mode JSON
– Appel de fonction parallèle
Entrée : 128 000
Sortie : 16 384
Oct. 2023
gpt-4o (2024-05-13)
GPT-4o (Omni)
Texte, traitement d’images
– Mode JSON
– Appel de fonction parallèle
- Précision et réactivité améliorées
- Parité avec le texte anglais et les tâches de codage par rapport à GPT-4 Turbo avec Vision
- Performances supérieures dans les langues non anglaises et dans les tâches de vision
Entrée : 128 000
Sortie : 4 096
Oct. 2023
gpt-4 (turbo-2024-04-09)
GPT-4 Turbo avec Vision
Nouveau modèle en disponibilité générale
– Remplacement de tous les précédents modèles GPT-4 en préversion (vision-preview, 1106-Preview, 0125-Preview).
- La disponibilité des fonctionnalités est actuellement différente en fonction de la méthode d’entrée et du type de déploiement.
Entrée : 128 000
Sortie : 4 096
Déc. 2023
gpt-4 (0125-Preview)*
Préversion de GPT-4 Turbo
Modèle en préversion
– Remplace 1106-Preview
– Meilleures performances de génération de code
– Réduit les cas où le modèle ne termine pas une tâche
– Mode JSON
– Appel de fonction parallèle
– Sortie reproductible (préversion)
Entrée : 128 000
Sortie : 4 096
Déc. 2023
gpt-4 (vision-préversion)
GPT-4 Turbo avec Vision Préversion
Modèle en préversion
– Accepte l’entrée de texte et d’image.
– Prend en charge les améliorations
– Mode JSON
– Appel de fonction parallèle
– Sortie reproductible (préversion)
Entrée : 128 000
Sortie : 4 096
avril 2023
gpt-4 (1106-Preview)
Préversion de GPT-4 Turbo
Modèle en préversion
– Mode JSON
– Appel de fonction parallèle
– Sortie reproductible (préversion)
Entrée : 128 000
Sortie : 4 096
avril 2023
gpt-4-32k (0613) Modèle plus ancien en disponibilité générale
– Appel de fonction de base avec des outils
32,768 Septembre 2021
gpt-4 (0613) Modèle plus ancien en disponibilité générale
– Appel de fonction de base avec des outils
8 192 Septembre 2021
gpt-4-32k(0314) Modèle plus ancien en disponibilité générale
- Informations sur la mise hors service
32,768 Septembre 2021
gpt-4 (0314) Modèle plus ancien en disponibilité générale
- Informations sur la mise hors service
8 192 Septembre 2021

Attention

Nous vous déconseillons d’utiliser des modèles de préversion en production. Nous allons mettre à niveau tous les déploiements de modèles en préversion vers les versions ultérieures en préversion ou vers la dernière version stable/en disponibilité générale. La préversion désignée des modèles ne suit pas le cycle de vie du modèle Azure OpenAI standard.

  • GPT-4 version 0125-preview est une version mise à jour de la préversion GPT-4 Turbo précédemment publiée en tant que version 1106-preview.
  • GPT-4 version 0125-preview effectue des tâches telles que la génération de code de manière plus complète que la version gpt-4-1106-preview. En conséquence, les clients peuvent trouver que, selon la tâche, GPT-4-0125-preview génère plus de sortie que gpt-4-1106-preview. Nous recommandons aux clients de comparer les sorties du nouveau modèle. GPT-4-0125-preview corrige également les bogues de gpt-4-1106-preview en proposant la gestion UTF-8 pour les autres langues que l'anglais.
  • La version GPT-4 turbo-2024-04-09 est la dernière version en disponibilité générale et remplace 0125-Preview, 1106-preview et vision-preview.

Important

Les versions GPT-4 (gpt-4) 1106-Preview, 0125-Preview et vision-preview seront mises à niveau avec une version stable de gpt-4 à l’avenir.

  • Les déploiements des gpt-4 versions, 1106-Preview, 0125-Preview, et vision-previewdéfinis sur « Mise à jour automatique par défaut » et « Mise à niveau en cas d’expiration » commenceront à être mis à niveau après la publication de la version stable. Pour chaque déploiement, une mise à niveau de la version du modèle a lieu sans interruption du service pour les appels d'API. Les mises à jour sont échelonnées par région et le processus complet de mise à jour devrait prendre 2 semaines.
  • Les déploiements des gpt-4 versions 1106-Preview, 0125-Preview, et vision-preview définis sur « Aucune mise à niveau automatique » ne seront pas mis à niveau et cesseront de fonctionner lorsque la préversion est mise à niveau dans la région. Pour plus d’informations sur le calendrier de mise à niveau, consultez Dépréciations et mises hors service des modèles Azure OpenAI.

GPT-3.5

Les modèles GPT-3.5 peuvent comprendre et générer un langage naturel ou du code. GPT-3.5 Turbo s’inscrit comme le modèle le plus performant et le plus économique de la famille GPT-3.5. Il a été optimisé pour la conversation et fonctionne également bien pour les tâches traditionnelles de saisie semi-automatique. GPT-3.5 Turbo est disponible pour une utilisation avec l’API de saisies semi-automatiques des conversations. GPT-3.5 Turbo Instruct offre des fonctionnalités similaires à text-davinci-003 à l’aide de l’API de saisie semi-automatique au lieu de l’API de saisies semi-automatiques des conversations. Nous recommandons d’utiliser GPT-3.5 Turbo et GPT-3.5 Turbo Instruct plutôt que les modèles GPT-3.5 et GPT-3 hérités.

ID de modèle Description Nbre max. de requêtes (jetons) Données d’entraînement (date max.)
gpt-35-turbo (0125) NOUVEAU Dernier modèle en disponibilité générale
– Mode JSON
– Appel de fonction parallèle
– Sortie reproductible (préversion)
– Précision plus élevée pour répondre dans les formats demandés.
– Correction d’un bogue qui a provoqué un problème d’encodage de texte pour les appels de fonction de langue autre que l’anglais.
Entrée : 16 385
Sortie : 4 096
Septembre 2021
gpt-35-turbo (1106) Modèle plus ancien en disponibilité générale
– Mode JSON
– Appel de fonction parallèle
– Sortie reproductible (préversion)
Entrée : 16 385
Sortie : 4 096
Septembre 2021
gpt-35-turbo-instruct (0914) Point de terminaison d’achèvement uniquement
– Remplacement pour des modèles de saisie semi-automatique hérités
4 097 Septembre 2021
gpt-35-turbo-16k (0613) Modèle plus ancien en disponibilité générale
– Appel de fonction de base avec des outils
16 384 Septembre 2021
gpt-35-turbo (0613) Modèle plus ancien en disponibilité générale
– Appel de fonction de base avec des outils
4 096 Septembre 2021
gpt-35-turbo1 (0301) Modèle plus ancien en disponibilité générale
- Informations sur la mise hors service
4 096 Septembre 2021

Pour en savoir plus les interactions avec GPT-3.5 Turbo et l’API de saisie semi-automatique de conversation, consultez la procédure détaillée.

1 Ce modèle accepte 4 096 jetons > des requêtes. Il n’est pas recommandé de dépasser la limite de 4 096 jetons d’entrée, car la version la plus récente du modèle est limitée à 4 096 jetons. Si vous rencontrez des problèmes lorsque vous excédez 4 096 jetons d’entrée avec ce modèle, cette configuration n’est pas officiellement prise en charge.

Incorporations

text-embedding-3-large est le modèle incorporé le plus récent et le plus capable. La mise à niveau entre les modèles d’incorporation n’est pas possible. Pour passer de l’utilisation de text-embedding-ada-002 à text-embedding-3-large vous devez générer de nouvelles incorporations.

  • text-embedding-3-large
  • text-embedding-3-small
  • text-embedding-ada-002

Dans les tests, OpenAI signale à la fois les modèles d’incorporation de grande et petite troisième génération offrent de meilleures performances de récupération multi-langues moyennes avec le point de référence MIRACL tout en conservant les performances des tâches anglaises avec le point de référence MTEB.

Benchmark d’évaluation text-embedding-ada-002 text-embedding-3-small text-embedding-3-large
Moyenne MIRACL 31,4 44.0 54.9
Moyenne MTEB 61,0 62,3 64.6

Les modèles d’incorporation de troisième génération prennent en charge la réduction de la taille de l’incorporation via un nouveau paramètre dimensions. En règle générale, les incorporations plus volumineuses sont plus coûteuses du point de vue du calcul, de la mémoire et du stockage. La possibilité d'ajuster le nombre de dimensions permet de mieux contrôler le coût global et les performances. Le paramètre dimensions n’est pas pris en charge dans toutes les versions de la bibliothèque Python OpenAI 1.x. Pour tirer parti de ce paramètre, nous vous recommandons de procéder à la mise à niveau vers la dernière version : pip install openai --upgrade.

Le test de référence MTEB d’OpenAI a révélé que même lorsque les dimensions du troisième modèle de génération sont réduites à moins de text-embeddings-ada-002 1 536 dimensions, les performances restent légèrement meilleures.

DALL-E

Les modèles DALL-E génèrent des images à partir d'invites textuelles fournies par l'utilisateur. DALL-E 3 est généralement disponible pour être utilisé avec les API REST. DALL-E 2 et DALL-E 3 avec les SDK clients sont en préversion.

Whisper

Les modèles Whisper peuvent être utilisés pour la reconnaissance vocale.

Vous pouvez également utiliser le modèle Whisper via l’API de transcription par lots d’Azure AI Speech. Découvrez Qu'est-ce que le modèle Whisper ? pour en savoir plus sur quand utiliser Azure AI Speech par rapport à Azure OpenAI Service.

Synthèse vocale (Préversion)

Les modèles de synthèse vocale OpenAI, actuellement en préversion, peuvent être utilisés pour convertir du texte par synthèse vocale.

Vous pouvez également utiliser les voix de synthèse vocale OpenAI via Azure AI Speech. Pour plus d’informations, consultez le guide Synthèse vocale OpenAI via Azure OpenAI Service ou via Azure AI Speech.

Tableau récapitulatif des modèles et de leur disponibilité par région

Modèles par type de déploiement

Azure OpenAI permet aux clients de choisir la structure d’hébergement qui correspond à leurs modèles d’entreprise et d’utilisation. Le service propose deux principaux types de déploiement :

  • Standard est proposé avec une option de déploiement mondial qui permet d’acheminer le trafic à l’échelle mondiale pour fournir un débit plus élevé.
  • Approvisionné est également offert avec une option de déploiement global, ce qui permet aux utilisateurs d’acheter et de déployer des unités de débit approvisionnées sur l’ensemble de l’infrastructure globale Azure.

Tous les déploiements peuvent effectuer exactement les mêmes opérations d’inférence, mais la facturation, la mise à l’échelle et les performances sont sensiblement différentes. Pour découvrir plus d’informations sur les types de déploiement Azure OpenAI, consultez notre guide sur les types de déploiement.

Disponibilité des modèles standard dans le monde

Région o1-preview, 2024-09-12 o1-mini, 2024-09-12 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4o-realtime-preview, 2024-10-01 gpt-4, turbo-2024-04-09
australiaeast - - - -
brazilsouth - - - -
canadaeast - - - -
eastus -
eastus2
francecentral - - - -
germanywestcentral - - - -
japaneast - - - -
KoreaCentral - - - -
northcentralus -
norwayeast - - - -
polognecentre - - - -
southafricanorth - - - -
southcentralus -
southindia - - - -
spaincentral - - -
centre de la suède
suisse nord - - - -
uaenorth - - - -
uksouth - - - -
westeurope - - - -
westus -
westus3 -

Ce tableau n’inclut pas les informations de disponibilité régionale de réglage précis. Pour plus d’informations, consultez la section sur le réglage précis.

Modèles standard par point de terminaison

Complétions de conversation

Région o1-preview, 2024-09-12 o1-mini, 2024-09-12 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4, 0613 gpt-4, 1106-Preview gpt-4, 0125-Preview gpt-4, vision-preview gpt-4, turbo-2024-04-09 gpt-4-32k, 0613 gpt-35-turbo, 0301 gpt-35-turbo, 0613 gpt-35-turbo, 1106 gpt-35-turbo, 0125 gpt-35-turbo-16k, 0613
australiaeast - - - - - - - - -
canadaeast - - - - - - - - -
eastus - - - - -
eastus2 - - - - - -
francecentral - - - - - - - - -
japaneast - - - - - - - - - - - -
northcentralus - - - - - -
norwayeast - - - - - - - - - - - - - - -
southcentralus - - - - - - -
southindia - - - - - - - - - - - - - -
centre de la suède - - -
suisse nord - - - - - - - - - - -
uksouth - - - - - - - - -
westeurope - - - - - - - - - - - - - - -
westus - - - - - -
westus3 - - - - - - - -

Disponibilité du modèle GPT-4 et GPT-4 Turbo

Accès de clients sélectionnés

Outre les régions ci-dessus qui sont disponibles pour tous les clients Azure OpenAI, certains clients préexistants sélectionnés ont été autorisés à accéder aux versions de GPT-4 dans des régions supplémentaires :

Modèle Région
gpt-4 (0314)
gpt-4-32k (0314)
USA Est
France Centre
États-Unis - partie centrale méridionale
Sud du Royaume-Uni
gpt-4 (0613)
gpt-4-32k (0613)
USA Est
USA Est 2
Japon Est
Sud du Royaume-Uni

Modèles GPT-3.5

Consultez les versions de modèle pour en savoir plus sur la façon dont Azure OpenAI Service gère les mises à niveau des versions de modèle et travailler avec des modèles pour découvrir comment afficher et configurer les paramètres de version du modèle de vos déploiements GPT-3.5 Turbo.

Réglage des modèles

Remarque

gpt-35-turbo - Le réglage fin de ce modèle est limité à un sous-ensemble de régions et n'est pas disponible dans toutes les régions où le modèle de base est disponible.

Les régions prises en charge pour le réglage précis peuvent varier si vous utilisez des modèles Azure OpenAI dans un projet AI Studio ou en dehors d’un projet.

ID de modèle Régions pour l’optimisation Nbre maximal de demandes (jetons) Données d’entraînement (date max.)
babbage-002 Centre-Nord des États-Unis
Suède Centre
Suisse Ouest
16 384 Septembre 2021
davinci-002 Centre-Nord des États-Unis
Suède Centre
Suisse Ouest
16 384 Septembre 2021
gpt-35-turbo (0613) USA Est 2
Centre-Nord des États-Unis
Suède Centre
Suisse Ouest
4 096 Septembre 2021
gpt-35-turbo (1106) USA Est 2
Centre-Nord des États-Unis
Suède Centre
Suisse Ouest
Entrée : 16 385
Sortie : 4 096
Septembre 2021
gpt-35-turbo (0125) USA Est 2
Centre-Nord des États-Unis
Suède Centre
Suisse Ouest
16,385 Septembre 2021
gpt-4 (0613) 1 Centre-Nord des États-Unis
Suède Centre
8 192 Septembre 2021
gpt-4o-mini 1 (2024-07-18) Centre-Nord des États-Unis
Suède Centre
Entrée : 128 000
Sortie : 16 384
Exemple de contexte d’entraînement : 64 536
Oct. 2023
gpt-4o 1 (2024-08-06) USA Est 2
Centre-Nord des États-Unis
Suède Centre
Entrée : 128 000
Sortie : 16 384
Exemple de contexte d’entraînement : 64 536
Oct. 2023

1 GPT-4 est actuellement en préversion publique.

Assistants (préversion)

Pour les Assistants, vous avez besoin d’une combinaison d’un modèle et d’une région tous les deux pris en charge. Certains outils et certaines fonctionnalités nécessitent les derniers modèles. Les modèles suivants sont disponibles dans l’API Assistants, le Kit de développement logiciel (SDK) et Azure AI Studio. Le tableau suivant concerne le paiement à l’utilisation. Pour plus d’informations sur la disponibilité des unités de débit provisionnées (PTU), consultez Débit provisionné. Les modèles et les régions répertoriés peuvent être utilisés avec assistants v1 et v2. Vous pouvez utiliser les modèles standard globaux s’ils sont pris en charge dans les régions répertoriées ci-dessous.

Région gpt-35-turbo (0613) gpt-35-turbo (1106) fine tuned gpt-3.5-turbo-0125 gpt-4 (0613) gpt-4 (1106) gpt-4 (0125) gpt-4o (2024-05-13) gpt-4o-mini (2024-07-18)
Australie Est
USA Est
USA Est 2
France Centre
Japon Est
Norvège Est
Suède Centre
Sud du Royaume-Uni
USA Ouest
USA Ouest 3

Mise hors service du modèle

Pour obtenir les informations les plus récentes sur les mises hors service des modèles, reportez-vous au guide de mise hors service des modèles.

Étapes suivantes