Événements
Créer des applications intelligentes
17 mars, 21 h - 21 mars, 10 h
Rejoignez la série de rencontres pour créer des solutions IA évolutives basées sur des cas d’usage réels avec d’autres développeurs et experts.
S’inscrire maintenantCe navigateur n’est plus pris en charge.
Effectuez une mise à niveau vers Microsoft Edge pour tirer parti des dernières fonctionnalités, des mises à jour de sécurité et du support technique.
Cet article fournit un résumé des dernières versions et des mises à jour majeures de documentation pour Azure OpenAI Service.
o3-mini
(2025-01-31) est le dernier modèle de raisonnement et offre des capacités de raisonnement améliorées. Pour plus d’informations, consultez notre guide des modèles de raisonnement.
Le modèle gpt-4o-audio-preview
est désormais disponible pour les déploiements globaux dans les régions USA Est 2 et Suède Centre. Utilisez le modèle gpt-4o-audio-preview
pour la génération audio.
Le modèle gpt-4o-audio-preview
introduit la modalité audio dans l’API /chat/completions
existante. Le modèle audio étend le potentiel des applications IA dans les interactions textuelles et vocales et les analyses audio. Les modalités prises en charge dans le modèle gpt-4o-audio-preview
sont les suivantes : texte, audio et texte + audio. Pour plus d’informations, consultez le guide de démarrage rapide sur la génération audio.
Notes
L’API en temps réel utilise le même modèle audio GPT-4o sous-jacent que l’API de saisie semi-automatique, mais est optimisée pour les interactions audio à faible latence et en temps réel.
Le modèle gpt-4o-realtime-preview
version 2024-12-17 est disponible pour les déploiements globaux dans les régions USA Est 2 et Suède Centre. Utilisez le modèle gpt-4o-realtime-preview
version 2024-12-17 au lieu du modèle gpt-4o-realtime-preview
version 2024-10-01-preview pour les interactions audio en temps réel.
gpt-4o-realtime-preview
.gpt-4o-realtime-preview
prennent désormais en charge les voix suivantes : « alloy », « ash », « ballad », « coral », « echo », « sage », « shimmer » et « verse ».gpt-4o-realtime-preview
. Les limites de débit pour chaque déploiement de modèle gpt-4o-realtime-preview
sont de 100 000 TPM et 1 000 RPM. Pendant la préversion, le portail et les API Azure AI Foundry peuvent afficher de manière imprécise des limites de débit différentes. Même si vous essayez de définir une limite de débit différente, la limite de débit réelle sera de 100 000 TPM et 1 000 RPM.Pour plus d’informations, consultez le Guide de démarrage rapide GPT-4o Realtime et le guide pratique.
Le modèle o1
le plus récent est maintenant disponible pour l’accès aux API et le déploiement de modèles.
L’inscription est requise et l’accès est accordé en fonction des critères d’éligibilité de Microsoft. Les clients, qui ont précédemment demandé et obtenu l’accès à o1-preview
, n’ont pas besoin de le redemander parce qu’ils sont automatiquement dans la liste d’attente pour le modèle le plus récent.
Demander l’accès : application de modèle d’accès limité
Pour en savoir plus sur les modèles avancés de la série o1
, consultez Prise en main des modèles de raisonnement de la série o1.
Modèle | Région |
---|---|
o1 (Version : 2024-12-17) |
USA Est 2 (Standard global) Suède Centre (Standard global) |
L’optimisation des préférences directes (DPO, Direct Preference Optimization) est une nouvelle technique d’alignement pour les grands modèles de langage, conçue pour ajuster les pondérations des modèles en fonction de préférences humaines. Contrairement à l’apprentissage par renforcement à partir de rétroaction humaine (RLHF, Reinforcement Learning from Human Feedback), l’optimisation des préférences directes (DPO) ne nécessite pas l’ajustement d’un modèle de récompense et utilise des données plus simples (des préférences binaires) pour l’entraînement. Cette méthode est plus légère et plus rapide en calcul, ce qui le rend aussi efficace au niveau de l’alignement tout en étant plus efficient. L’optimisation des préférences directes est particulièrement utile dans les scénarios où des éléments subjectifs, comme le ton, le style ou des préférences de contenu spécifiques, sont importants. Nous sommes heureux d’annoncer la préversion publique de l’optimisation des préférences directes dans Azure OpenAI Service, à compter du modèle gpt-4o-2024-08-06
.
Pour connaître la disponibilité régionale du modèle d’optimisation, consultez la page des modèles.
Les complétions stockées vous permettent de capturer l’historique des conversations à partir des sessions de complétion de conversation pour les utiliser comme jeux de données pour les évaluations et l’optimisation.
gpt-4o-2024-11-20
est maintenant disponible pour le déploiement standard global dans :
Les déploiements approvisionnés de zone de données sont disponibles dans la même ressource Azure OpenAI que tous les autres types de déploiement Azure OpenAI, mais ils vous permettent de profiter de l’infrastructure globale Azure pour router dynamiquement le trafic vers le centre de données au sein de la zone de données définie par Microsoft avec la meilleure disponibilité pour chaque requête. Les déploiements approvisionnés de zone de données fournissent une capacité de traitement de modèle réservée pour un débit élevé et prévisible en utilisant une infrastructure Azure avec des zones de données spécifiées par Microsoft. Les déploiements approvisionnés de zone de données sont pris en charge sur les modèles gpt-4o-2024-08-06
, gpt-4o-2024-05-13
et gpt-4o-mini-2024-07-18
.
Pour plus d'informations, consultez le guide des types de déploiement.
L’optimisation de Vision avec GPT-4o (2024-08-06) est maintenant en disponibilité générale.
L’optimisation de Vision vous permet d’ajouter des images à vos données d’entraînement JSONL. Tout comme vous pouvez envoyer une ou plusieurs entrées d’image à des complétions de conversation, vous pouvez inclure ces mêmes types de messages dans vos données d’entraînement. Les images peuvent être fournies en tant qu’URL ou en tant qu’images encodées en base64.
Pour connaître la disponibilité régionale du modèle d’optimisation, consultez la page des modèles.
Nous introduisons de nouvelles formes de surveillance des abus qui tirent parti des machines virtuelles locales pour améliorer l’efficacité de la détection de l’utilisation potentiellement abusive du service Azure OpenAI et pour permettre la surveillance des abus sans avoir besoin d’examiner les invites et les achèvements humains. En savoir plus, consultez surveillance des abus.
Les prompts et les achèvements signalés par la classification de contenu et/ou identifiés pour faire partie d’un modèle d’utilisation potentiellement abusif sont soumis à un processus d’examen supplémentaire pour vous aider à confirmer l’analyse du système et à éclairer les décisions d’action. Nos systèmes de surveillance des abus ont été développés pour permettre l’examen par LLM par défaut et par les humains si nécessaire et approprié.
Les déploiements Standard de zone de données sont disponibles dans la même ressource Azure OpenAI que tous les autres types de déploiement Azure OpenAI, mais vous permettent de profiter de l’infrastructure globale Azure pour acheminer dynamiquement le trafic vers le centre de données au sein de la zone de données définie par Microsoft avec la meilleure disponibilité pour chaque requête. Standard de zone de données fournit des quotas par défaut plus élevés que nos types de déploiement basés sur la zone géographique Azure. Les déploiements Standard de zone de données sont pris en charge sur les modèles gpt-4o-2024-08-06
, gpt-4o-2024-05-13
et gpt-4o-mini-2024-07-18
.
Pour plus d'informations, consultez le guide des types de déploiement.
Le traitement par lots global d’Azure OpenAI est maintenant en disponibilité générale.
L’API Azure OpenAI Batch est conçue pour gérer efficacement les tâches de traitement à grande échelle et à volume élevé. Traitez les groupes asynchrones de requêtes avec un quota distinct, avec un délai d’exécution cible de 24 heures, à un coût 50 % inférieur au type Standard global. Avec le traitement par lots, plutôt que d’envoyer une seule requête à la fois, vous envoyez un grand nombre de requêtes dans un seul fichier. Les requêtes de traitement par lots global ont un quota de jetons empilés distinct qui évite toute interruption de vos charges de travail en ligne.
Les principaux cas d’utilisation sont les suivants :
Traitement de données à grande échelle : analysez rapidement des jeux de données étendus en parallèle.
Génération de contenu : créez des volumes de texte importants, notamment des descriptions de produits ou des articles.
Révision et résumé de documents : automatisez la révision et le résumé de documents longs.
Automatisation du service clientèle : gérez simultanément de nombreuses requêtes pour obtenir des réponses plus rapides.
Extraction et analyse des données : extrayez et analysez des informations provenant de vastes quantités de données non structurées.
Tâches de traitement du langage naturel (NLP) : effectuez par exemple des tâches d’analyse des sentiments ou de traduction sur de grands jeux de données.
Marketing et personnalisation : générer du contenu et des suggestions personnalisés à grande échelle.
Pour plus d’informations, consultez Prise en main des déploiements par lots globaux.
Les modèles o1-preview
et o1-mini
sont désormais disponibles pour l’accès aux API et le déploiement de modèles.
L’inscription est requise et l’accès est accordé en fonction des critères d’éligibilité de Microsoft.
Demander l’accès : application de modèle d’accès limité
Les clients qui ont déjà été approuvés et qui ont accès au modèle via le terrain de jeu d’accès anticipé n’ont pas besoin de s’inscrire à nouveau, ils recevront automatiquement l’accès à l’API. Une fois l’accès accordé, vous devez créer un déploiement pour chaque modèle.
Prise en charge des API :
La prise en charge des modèles de série o1 a été ajoutée dans la version 2024-09-01-preview
de l’API.
Le paramètre max_tokens
a été déconseillé et remplacé par le nouveau paramètre max_completion_tokens
. Les modèles de série o1 fonctionnent uniquement avec le paramètre max_completion_tokens
.
Disponibilité dans les régions :
Les modèles sont disponibles pour le déploiement standard et global dans la région USA Est 2 et Suède Centre pour les clients approuvés.
L’API GPT-4o d’Azure OpenAI pour l’audio fait partie de la famille de modèles GPT-4o qui prend en charge les interactions conversationnelles à latence faible « entrée vocale, sortie vocale ». L’API Audio realtime
GPT-4o est conçue pour gérer les interactions conversationnelles en temps réel et à latence faible, ce qui en fait un excellent choix pour les cas d’usage impliquant des interactions directes entre un utilisateur et un modèle, comme des agents d’un service clientèle, des assistants vocaux et des traducteurs en temps réel.
Le modèle gpt-4o-realtime-preview
est disponible pour les déploiements globaux dans les régions USA Est 2 et Suède Centre.
Pour plus d’informations, consultez le Guide de démarrage rapide GPT-4o Realtime.
Le traitement par lots global prend désormais en charge GPT-4o (2024-08-06). Pour plus d’informations, consultez le guide de prise en main du traitement par lots global.
À compter du 19 septembre 2024, lorsque vous accédez à Azure OpenAI Studio , vous ne voyez plus la version héritée d’Azure OpenAI Studio par défaut. Si nécessaire, vous pourrez toujours revenir à l’expérience précédente en utilisant le Commutateur à bascule vers l’ancien look dans la barre supérieure de l’interface utilisateur pour les deux prochaines semaines. Si vous revenez au portail hérité Azure AI Foundry, aidez-nous en nous expliquant pourquoi dans le formulaire Contactez-nous. Nous suivons attentivement ces commentaires pour améliorer la nouvelle expérience.
GPT-4o 2024-08-06 est désormais disponible pour les déploiements approvisionnés dans USA Est, USA Est 2, USA Centre Nord et Suède Centre. Il est également disponible pour les déploiements approvisionnés globaux.
Pour obtenir les dernières informations sur la disponibilité des modèles, consultez la page des modèles.
Les déploiements mondiaux sont disponibles dans les mêmes ressources Azure OpenAI que les types de déploiements non mondiaux, mais ils vous permettent de tirer parti de l’infrastructure mondiale d’Azure pour router dynamiquement le trafic vers le centre de données avec la meilleure disponibilité pour chaque requête. Les déploiements approvisionnés globaux fournissent une capacité de traitement de modèle réservée pour le débit élevé et prévisible en utilisant une infrastructure globale Azure. Les déploiements approvisionnés globaux sont pris en charge sur les modèles gpt-4o-2024-08-06
et gpt-4o-mini-2024-07-18
.
Pour plus d'informations, consultez le guide des types de déploiement.
Les modèles azure OpenAI o1-preview
et o1-mini
sont conçus pour traiter les tâches de raisonnement et de résolution des problèmes avec un focus et une capacité accrus. Ces modèles passent plus de temps à traiter et à comprendre la requête de l’utilisateur(-trice), ce qui les rend exceptionnellement forts dans des domaines tels que la science, le codage et les mathématiques par rapport aux itérations précédentes.
o1-preview
: o1-preview
est plus capable des modèles de série o1
.o1-mini
: o1-mini
est le plus rapide et moins cher des modèles de série o1
.Version de modèle : 2024-09-12
Demander l’accès : application de modèle d’accès limité
Les modèles de série o1
sont actuellement en préversion et n’incluent pas certaines fonctionnalités disponibles dans d’autres modèles, telles que la compréhension des images et les sorties structurées disponibles dans le dernier modèle GPT-4o. Pour de nombreuses tâches, les modèles GPT-4o généralement disponibles peuvent encore être plus adaptés.
OpenAI a incorporé des mesures de sécurité supplémentaires dans les modèles o1
, y compris de nouvelles techniques pour aider les modèles à refuser des requêtes dangereuses. Ces avancées font de la série o1
l’un des modèles les plus robustes du marché.
Les modèles o1-preview
et o1-mini
sont disponibles dans la région USA Est 2 pour un accès limité via un terrain de jeu à accès anticipé du portail Azure AI Foundry. Le traitement des données pour les modèles o1
peut se produire dans une région différente de celle où ils sont disponibles pour une utilisation.
Pour essayer les modèles o1-preview
et o1-mini
dans le terrain de jeux d’accès anticipé, inscription est requise et l’accès sera accordé en fonction des critères d’admissibilité de Microsoft.
Demander l’accès : application de modèle d’accès limité
Une fois l’accès accordé, vous devez :
eastus2
. Si vous n’avez pas de ressource Azure OpenAI dans cette région, vous devez créer une ressource.eastus2
sélectionnée, dans le volet supérieur gauche sous Terrains de jeu sélectionnez terrain de jeu à accès anticipé (préversion).GPT-4o mini est désormais disponible pour les déploiements approvisionnés dans Canada Est, USA Est, USA Est 2,USA Centre Nord et Suède Centre.
Pour obtenir les dernières informations sur la disponibilité des modèles, consultez la page des modèles.
Le fine-tuning de GPT-4o est désormais disponible pour Azure OpenAI en préversion publique dans les régions Suède Centre et USA Centre Nord.
Pour plus d’informations, consultez notre billet de blog.
La version 2024-07-01-preview
de l’API est la version la plus récente de l’API de création et d’inférence de plan de données. Elle remplace la version 2024-05-01-preview
de l’API et ajoute la prise en charge des éléments suivants :
max_num_results
que l’outil de recherche de fichiers doit produire en sortie.Pour plus d’informations, consultez notre documentation de référence.
Le 6 août 2024, OpenAI a annoncé la dernière version de leur modèle phare GPT-4o 2024-08-06
. GPT-4o 2024-08-06
dispose de toutes les fonctionnalités de la version précédente, ainsi que :
Les clients Azure peuvent tester GPT-4o 2024-08-06
dès aujourd’hui dans le nouveau terrain de jeu à accès anticipé d’Azure AI Foundry (préversion).
Contrairement au terrain de jeu à accès anticipé précédent, le terrain de jeu à accès anticipé du portail Azure AI Foundry (préversion) ne vous oblige pas à disposer d’une ressource dans une région spécifique.
Notes
Les invites et les achèvements effectués via le terrain de jeu d’accès anticipé (préversion) peuvent être traités dans n’importe quelle région d’Azure OpenAI et sont actuellement soumis à une limite de 10 requêtes par minute par abonnement Azure. Cette limite peut changer à l’avenir.
La surveillance des abus d’Azure OpenAI Service est activée pour tous les utilisateurs du terrain de jeu à accès anticipé, même si une modification est approuvée; les filtres de contenu par défaut sont activés et ne peuvent pas être modifiés.
Pour tester la 2024-08-06
GPT-4o, connectez-vous au terrain de jeu d’accès anticipé d’Azure AI (préversion) à l’aide de ce lien.
L’API Azure OpenAI Batch est conçue pour gérer efficacement les tâches de traitement à grande échelle et à volume élevé. Traitez les groupes asynchrones de requêtes avec un quota distinct, avec un délai d’exécution cible de 24 heures, à un coût 50 % inférieur au type Standard global. Avec le traitement par lots, plutôt que d’envoyer une seule requête à la fois, vous envoyez un grand nombre de requêtes dans un seul fichier. Les requêtes de traitement par lots global ont un quota de jetons empilés distinct qui évite toute interruption de vos charges de travail en ligne.
Les principaux cas d’utilisation sont les suivants :
Traitement de données à grande échelle : analysez rapidement des jeux de données étendus en parallèle.
Génération de contenu : créez des volumes de texte importants, notamment des descriptions de produits ou des articles.
Révision et résumé de documents : automatisez la révision et le résumé de documents longs.
Automatisation du service clientèle : gérez simultanément de nombreuses requêtes pour obtenir des réponses plus rapides.
Extraction et analyse des données : extrayez et analysez des informations provenant de vastes quantités de données non structurées.
Tâches de traitement du langage naturel (NLP) : effectuez par exemple des tâches d’analyse des sentiments ou de traduction sur de grands jeux de données.
Marketing et personnalisation : générer du contenu et des suggestions personnalisés à grande échelle.
Pour plus d’informations, consultez Prise en main des déploiements par lots globaux.
Le réglage précis de GPT-4o est désormais disponible en préversion publique dans les régions Suède Centre et USA Centre Nord.
L’outil de recherche de fichiers pour les Assistants entraîne désormais des frais d’utilisation supplémentaires. Pour plus d’informations, consultez la page des tarifs.
GPT-4o mini, le dernier modèle Azure OpenAI, a fait l’objet d’une première annonce le 18 juillet 2024 :
« GPT-4o mini permet aux clients de fournir de superbes applications à moindre coût et à une vitesse fulgurante. GPT-4o mini est beaucoup plus intelligent que GPT-3.5 Turbo, avec un score de 82 % au benchmark MMLU (Measuring Massive Multitask Language Understanding) contre 70 % pour GPT-3.5 Turbo, et permet des économies de plus de 60 %. 1 Le modèle offre une fenêtre de contexte étendue de 128 K et intègre les capacités multilingues améliorées de GPT-4o, apportant une meilleure qualité aux langues du monde entier. »
Le modèle est actuellement disponible pour les déploiements standard et global standard dans la région USA Est.
Pour plus d’informations sur le quota du modèle, consultez la page des quotas et des limites, et pour les dernières informations sur la disponibilité du modèle, reportez-vous à la page des modèles.
La nouvelle stratégie de filtrage de contenu par défaut, DefaultV2
, fournit les dernières atténuations de sécurité pour la série de modèles GPT (texte), notamment :
Bien qu’il n’y ait aucune modification apportée aux filtres de contenu pour les ressources et les déploiements existants (les configurations de filtrage de contenu par défaut ou personnalisées restent inchangées), les nouvelles ressources et les déploiements GPT héritent automatiquement de la nouvelle stratégie de filtrage de contenu, DefaultV2
. Les clients ont la possibilité de basculer entre les paramètres de sécurité par défaut et la création de configurations de filtrage de contenu personnalisées.
Consultez notre Documentation relative à la stratégie de sécurité par défaut pour obtenir plus d’informations.
La version 2024-06-01
de l’API est la dernière version de l’API d’inférence de plan de données en disponibilité générale. Elle remplace la version 2024-02-01
de l’API et ajoute la prise en charge des éléments suivants :
encoding_format
incorporations et paramètres dimensions
.logprobs
complétions de conversations et paramètres top_logprobs
.Pour plus d’informations, consultez notre documentation de référence sur l’inférence de plan de données.
GPT-4o est désormais disponible pour les déploiements standard globaux dans :
Pour plus d’informations sur le quota standard global, consultez la page sur les quotas et limites.
gpt-35-turbo
0301 mise à jour au plus tôt au 1er octobre 2024.gpt-35-turbo
et gpt-35-turbo-16k
0613 mise à jour au 1er octobre 2024.gpt-4
et gpt-4-32k
0314 mise à jour au 1er octobre 2024 et date de mise hors service au 6 juin 2025.Reportez-vous au guide de mise hors service de notre modèle pour obtenir les informations les plus récentes sur la dépréciation et la mise hors service du modèle.
Pour obtenir les dernières informations sur la disponibilité des modèles, consultez la page des modèles.
Les threads et les fichiers dans les Assistants prennent désormais en charge CMK dans la région suivante :
Version gpt-4o
: 2024-05-13
est disponible pour les déploiements standard et approvisionnés. Les déploiements de modèles approvisionnés et standard acceptent les requêtes d’inférence de texte et d’image/vision.
Pour plus d’informations sur la disponibilité régionale du modèle, consultez la matrice de modèles pour les déploiements approvisionnés.
L’actualisation de l’API Assistants est désormais disponible publiquement. Elle contient les mises à jour suivantes :
tool_choice
pour forcer l’Assistant à utiliser un outil spécifié.
Vous pouvez maintenant créer des messages avec le rôle d’assistant pour créer des historiques de conversation personnalisés dans Threads.temperature
, top_p
, response_format
.GPTAssistantAgent
, un nouvel agent expérimental qui vous permet d’ajouter en toute transparence des Assistants aux flux de travail multi-agents basés sur AutoGen. Cela permet à plusieurs assistants Azure OpenAI qui peuvent être des tâches ou des domaines spécialisés pour collaborer et traiter des tâches complexes.gpt-3.5-turbo-0125
optimisés dans les régions suivantes : Pour plus d’informations, consultez l’article de blog sur les assistants.
GPT-4o (« o » signifie « omni ») est le dernier modèle d’OpenAI lancé le 13 mai 2024.
Pour plus d’informations sur la disponibilité régionale du modèle, consultez la page des modèles.
Les déploiements globaux sont disponibles dans les mêmes ressources Azure OpenAI que les offres non globales, mais vous permettent d’exploiter l’infrastructure globale d’Azure pour acheminer dynamiquement le trafic vers le centre de données offrant la meilleure disponibilité pour chaque requête. L’option Mondial Standard fournit le quota par défaut le plus élevé pour les nouveaux modèles et élimine la nécessité d’équilibrer la charge entre plusieurs ressources.
Pour plus d'informations, consultez le guide des types de déploiement.
2024-05-01-preview
.Créez des filtres de contenu personnalisés pour vos déploiements DALL-E 2 et 3, GPT-4 Turbo avec Vision GA (turbo-2024-04-09
) et GPT-4o.
Filtrage du contenu
L’exécution de filtres de manière asynchrone pour améliorer la latence dans les scénarios de streaming est désormais disponible pour tous les clients Azure OpenAI. Filtrage du contenu
Prompt Shields protège les applications alimentées par des modèles Azure OpenAI de deux types d’attaques : les attaques directes (jailbreak) et indirectes. Les attaques indirectes (également appelées attaques d’invite indirectes ou attaques par injection d’invite inter-domaines) sont un type d’attaque sur les systèmes alimentés par des modèles d’IA générative qui peuvent se produire lorsqu’une application traite des informations qui n’ont pas été créées directement par le développeur de l’application ou l’utilisateur. Filtrage du contenu
La dernière version en disponibilité générale de GPT-4 Turbo est :
gpt-4
Version :turbo-2024-04-09
Il s’agit du remplacement des modèles en préversion suivants :
gpt-4
Version :1106-Preview
gpt-4
Version :0125-Preview
gpt-4
Version :vision-preview
0409
Turbo prend en charge le mode JSON et l’appel de fonction pour toutes les requêtes d’inférence.turbo-2024-04-09
ne prend actuellement pas en charge l’utilisation du mode JSON et l’appel de fonction lors de l’exécution de requêtes d’inférence avec une entrée d’image (vision). Les requêtes d’entrée basées sur du texte (requêtes sans image_url
et images incluses) prennent par contre en charge le mode JSON et l’appel de fonction.gpt-4
Version :turbo-2024-04-09
. Cela inclut la reconnaissance optique de caractères (OCR), l’ancrage d’objets, les invites vidéo et la gestion améliorée de vos données avec des images.Important
Les fonctionnalités en préversion des améliorations de Vision, notamment la reconnaissance optique de caractères (OCR), la mise au sol des objets, les invites vidéo, seront supprimées et ne seront plus disponibles une fois la version gpt-4
: vision-preview
mise à niveau vers turbo-2024-04-09
. Si vous utilisez actuellement l’une de ces fonctionnalités en préversion, cette mise à niveau automatique du modèle sera un changement cassant.
gpt-4
Version :turbo-2024-04-09
est disponible pour les déploiements standard et approvisionnés. Actuellement, la version approvisionnée de ce modèle ne prend pas en charge les requêtes d’inférence d’image/vision. Les déploiements approvisionnés de ce modèle acceptent uniquement les entrées de texte. Les déploiements de modèles standard acceptent les requêtes d’inférence de texte et d’image/vision.Pour déployer le modèle en disponibilité générale à partir du portail Azure AI Foundry, sélectionnez GPT-4
, puis choisissez la version turbo-2024-04-09
dans le menu déroulant. Le quota par défaut pour le modèle gpt-4-turbo-2024-04-09
est le même que le quota actuel pour GPT-4-Turbo. Voir les limites de quota régionales.
Le fine-tuning est désormais disponible avec prise en charge des régions suivantes :
gpt-35-turbo
(0613)gpt-35-turbo
(1106)gpt-35-turbo
(0125)babbage-002
davinci-002
gpt-35-turbo
(0613)gpt-35-turbo
(1106)gpt-35-turbo
(0125)Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles et du réglage précis dans chaque région.
Le fine-tuning prend désormais en charge des exemples de formation d’invite multitour.
Vous pouvez maintenant utiliser le modèle GPT-4 (0125) dans les régions disponibles avec Azure OpenAI sur vos données.
Azure OpenAI Studio fournit désormais un tableau de bord Risques et sécurité pour chacun de vos déploiements qui utilise une configuration de filtre de contenu. Utilisez-le pour vérifier les résultats de l’activité de filtrage. Vous pouvez ensuite ajuster votre configuration de filtre pour mieux répondre aux besoins de votre entreprise et respecter les principes de l’IA responsable.
Utiliser Surveillance des risques et de la sécurité
Il s’agit de la dernière version de l’API GA et remplace la version GA précédente du 2023-05-15
. Cette version ajoute la prise en charge des dernières fonctionnalités d’Azure OpenAI GA telles que Whisper, DALLE-3, réglage précis, sur vos données, etc.
Les fonctionnalités qui sont en préversion, telles que les Assistants, la synthèse vocale (TTS) et certaines de vos sources de données « de données », nécessitent une version préliminaire de l’API. Pour plus d’informations, consultez notre Guide sur le cycle de vie des versions de l’API.
Le modèle de reconnaissance vocale Whisper est désormais en disponibilité générale pour REST et Python. Les kits de développement logiciel de bibliothèque de client sont actuellement en préversion publique.
Essayez Whisper en suivant un guide de démarrage rapide.
Le modèle de génération d’images DALL-E 3 est désormais en disponibilité générale pour REST et Python. Les kits de développement logiciel de bibliothèque de client sont actuellement en préversion publique.
Essayez DALL-E 3 en suivant un démarrage rapide.
Vous pouvez désormais accéder à DALL-E 3 avec une ressource Azure OpenAI dans la région Azure East US
ou AustraliaEast
, en plus de SwedenCentral
.
Nous avons ajouté une page pour suivre les dépréciations et les mises hors service de modèles dans Azure OpenAI Service. Cette page fournit des informations sur les modèles qui sont actuellement disponibles, déconseillés ou supprimés.
2024-03-01-preview
a toutes les mêmes fonctionnalités que 2024-02-15-preview
et ajoute deux nouveaux paramètres pour les incorporations :
encoding_format
vous permet de spécifier le format pour générer des incorporations dans float
, ou base64
. Par défaut, il s’agit de float
.dimensions
vous permet de définir le nombre d’incorporations de sortie. Ce paramètre est pris en charge uniquement avec les nouveaux modèles d’incorporation de troisième génération : text-embedding-3-large
, text-embedding-3-small
. En règle générale, les incorporations plus volumineuses sont plus coûteuses du point de vue du calcul, de la mémoire et du stockage. La possibilité d'ajuster le nombre de dimensions permet de mieux contrôler le coût global et les performances. Le paramètre dimensions
n’est pas pris en charge dans toutes les versions de la bibliothèque Python OpenAI 1.x. Pour tirer parti de ce paramètre, nous vous recommandons de procéder à la mise à niveau vers la dernière version : pip install openai --upgrade
.Si vous utilisez actuellement une version de l’API en préversion pour tirer parti des dernières fonctionnalités, nous vous recommandons de consulter l’article sur le cycle de vie de la version de l’API pour suivre la durée de prise en charge de votre version actuelle de l’API.
La mise à niveau du déploiement de gpt-4
1106-Preview vers gpt-4
0125-Preview planifiée pour le 8 mars 2024 n’a plus lieu. Les déploiements des versions gpt-4
1106-Preview et 0125-Preview définis sur « Mise à jour automatique par défaut » et « Mise à niveau en cas d’expiration » commenceront à être mis à niveau après la publication d’une version stable du modèle.
Pour plus d’informations sur le processus de mise à niveau, reportez-vous à la page modèles.
Ce modèle présente différentes améliorations, notamment une précision plus élevée pour répondre aux formats demandés et un correctif pour un bogue qui a provoqué un problème d’encodage de texte pour les appels de fonction de langue autre que l’anglais.
Pour obtenir des informations sur la disponibilité régionale du modèle et les mises à niveau, consultez la page des modèles.
text-embedding-3-large
text-embedding-3-small
Dans les tests, OpenAI signale à la fois les grands et petits modèles d’incorporation de troisième génération qui offrent de meilleures performances de récupération multi-langues moyennes avec le point de référence MIRACL tout en conservant de meilleures performances pour les tâches anglaises avec le point de référence MTEB que le modèle text-embedding-ada-002 de deuxième génération.
Pour obtenir des informations sur la disponibilité régionale du modèle et les mises à niveau, consultez la page des modèles.
Pour simplifier la migration entre différentes versions des modèles GPT-3.5-Turbo (y compris 16k), nous allons consolider tous les quotas GPT-3.5-Turbo en une seule valeur de quota.
Tous les clients qui ont augmenté le quota approuvé disposeront d’un quota total combiné qui reflète les augmentations précédentes.
Tout client dont l’utilisation totale actuelle entre les versions de modèle est inférieure à la valeur par défaut obtiendra un nouveau quota total combiné par défaut.
La version de modèle gpt-4
0125-preview
est désormais disponible sur Azure OpenAI Service dans les régions USA Est, USA Centre Nord et USA Centre Sud. Les clients avec des déploiements de gpt-4
version 1106-preview
seront automatiquement mis à niveau vers 0125-preview
au cours des prochaines semaines.
Pour obtenir des informations sur la disponibilité régionale du modèle et les mises à niveau, consultez la page des modèles.
Azure OpenAI prend désormais en charge l’API qui alimente les GPT d’OpenAI. Les Assistants Azure OpenAI (préversion) vous permettent de créer des assistants IA adaptés à vos besoins par le biais d’instructions personnalisées et des outils avancés tels que l’interpréteur de code et les fonctions personnalisées. Pour en savoir plus, consultez :
Azure OpenAI Service prend désormais en charge les API de synthèse vocale avec les voix d’OpenAI. Obtenez la voix générée par l’IA à partir du texte que vous fournissez. Pour plus d’informations, consultez le guide de présentation et essayez le démarrage rapide.
Notes
Azure AI Speech prend également en charge les voix de synthèse vocale OpenAI. Pour plus d’informations, consultez le guide Voix de synthèse vocale OpenAI via Azure OpenAI Service ou via Azure AI Speech.
Vous pouvez maintenant utiliser Azure OpenAI sur vos données dans la région Azure suivante :
GPT-4 Turbo avec Vision sur le service Azure OpenAI est maintenant en avant-première publique. GPT-4 Turbo avec Vision est un grand modèle multimodal (LMM) développé par OpenAI qui peut analyser des images et fournir des réponses textuelles à des questions les concernant. Il intègre à la fois le traitement du langage naturel et la compréhension visuelle. Avec le mode amélioré, vous pouvez utiliser les fonctionnalités Azure AI Vision pour générer des aperçus supplémentaires à partir des images.
SwitzerlandNorth
, SwedenCentral
, WestUS
et AustraliaEast
Les deux modèles sont la dernière version d’OpenAI avec des instructions améliorées suivantes, le mode JSON, la sortie reproductible et l’appel de fonction parallèle.
Préversion GPT-4 Turbo a une fenêtre contextuelle maximale de 128 000 jetons et peut générer 4 096 jetons de sortie. Il contient les dernières données d’apprentissage avec des connaissances jusqu’en avril 2023. Ce modèle est en préversion et n’est pas recommandé pour une utilisation en production. Tous les déploiements de ce modèle en préversion seront automatiquement mis à jour une fois la version stable disponible.
GPT-3.5-Turbo-1106 a une fenêtre contextuelle maximale de 16 385 jetons et peut générer 4 096 jetons de sortie.
Pour plus d’informations sur la disponibilité régionale du modèle, consultez la page des modèles.
Les modèles ont leur propre allocation de quota unique par région.
DALL-E 3 est le dernier modèle de génération d’images à partir d’OpenAI. Il offre une qualité d’image améliorée, des scènes plus complexes et des performances améliorées lors de l’affichage du texte dans des images. Il est également fourni avec plus d’options de proportions. DALL-E 3 est disponible via OpenAI Studio et via l’API REST. Votre ressource OpenAI doit se trouver dans la région Azure SwedenCentral
.
DALL-E 3 inclut la réécriture d’invite intégrée pour améliorer les images, réduire les biais et augmenter la variation naturelle.
Essayez DALL-E 3 en suivant un démarrage rapide.
Configurabilité étendue des clients : tous les clients Azure OpenAI peuvent désormais configurer tous les niveaux de gravité (faible, moyen, élevé) pour les catégories haine, violence, préjudice sexuel et auto-préjudice, y compris le filtrage uniquement du contenu de gravité élevée. Configurer des filtres de contenu
Informations d’identification de contenu dans tous les modèles DALL-E : les images générées par l’IA à partir de tous les modèles DALL-E incluent désormais des informations d’identification numériques qui divulguent le contenu en tant que généré par l’IA. Les applications qui affichent des ressources d’image peuvent tirer parti du Kit de développement logiciel (SDK) Content Authentic Initiative open source pour afficher les informations d’identification dans leurs images générées par l’IA. informations d’identification de contenu dans Azure OpenAI
Nouveaux modèles RAI
Listes de blocage : les clients peuvent désormais personnaliser rapidement le comportement du filtre de contenu pour les invites et les achèvements en créant une liste de blocage personnalisée dans leurs filtres. La liste de blocage personnalisée permet au filtre d’agir sur une liste personnalisée de modèles, comme des termes spécifiques ou des modèles regex. En plus des listes de blocage personnalisées, nous fournissons une liste de blocage de profanité Microsoft (anglais). Utiliser des listes de blocage
gpt-35-turbo-0613
est désormais disponible pour réglage précis.
babbage-002
et davinci-002
sont désormais disponible pour réglage précis. Ces modèles remplacent les modèles de base ada, babbage, curie et davinci hérités qui étaient précédemment disponibles pour réglage précis.
La disponibilité du réglage précis est limitée à certaines régions. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.
Les modèles de réglage précis ont des limites de quota différentes que les modèles standard.
GPT-4 et GPT-4-32k sont désormais accessibles à tous les clients Azure OpenAI Service. Les clients n’ont plus besoin de s’inscrire à la liste d’attente pour utiliser GPT-4 et GPT-4-32k (les conditions d’inscription à l’accès limité continuent de s’appliquer à tous les modèles Azure OpenAI). La disponibilité peut varier selon la région. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.
Azure OpenAI Service prend désormais en charge le modèle GPT-3.5 Turbo Instruct. Ce modèle a des performances comparables à text-davinci-003
et est disponible pour l'API Completions. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.
Azure OpenAI Service prend désormais en charge les API de synthèse vocale basées sur le modèle Whisper d'OpenAI. Obtenez du texte généré par l'IA en fonction de l'audio vocal que vous fournissez. Pour en savoir plus, consultez le guide de démarrage rapide.
Notes
Azure AI Speech prend également en charge le modèle Whisper d'OpenAI via l'API de transcription par lots. Pour en savoir plus, consultez le guide Créer une transcription par lots. Découvrez Qu'est-ce que le modèle Whisper ? pour en savoir plus sur quand utiliser Azure AI Speech par rapport à Azure OpenAI Service.
2023-05-15
de l’API d’achèvement de conversation.Si vous utilisez actuellement l’API 2023-03-15-preview
, nous vous recommandons une migration vers l’API 2023-05-15
en disponibilité générale. Si vous utilisez actuellement la version 2022-12-01
de l’API, cette API reste en disponibilité générale, mais n’inclut pas les dernières fonctionnalités d’achèvement de conversation.
Important
L’utilisation des versions actuelles des modèles GPT-35-Turbo avec le point de terminaison d’achèvement demeure en préversion.
DALL-E 2 en préversion publique. Azure OpenAI Service prend désormais en charge les API de génération d’images basées sur le modèle DALL-E 2 d’OpenAI. Obtenez des images générées par l’IA en fonction du texte descriptif que vous fournissez. Pour en savoir plus, consultez le guide de démarrage rapide.
Les déploiements inactifs de modèles personnalisés vont désormais être supprimés après 15 jours ; les modèles vont rester disponibles pour le redéploiement. Si un modèle personnalisé (ajusté) est déployé pendant plus de quinze (15) jours pendant lesquels aucun appel d’achèvement ou d’achèvement de conversation n’est effectué, le déploiement est automatiquement supprimé (et aucun autre frais d’hébergement n’est facturé pour ce déploiement). Le modèle personnalisé sous-jacent reste disponible et peut être redéployé à tout moment. Pour plus d’informations, consultez l’article de procédure correspondant.
Les modèles de la série GPT-4 sont désormais disponibles en préversion dans Azure OpenAI. Pour demander l’accès, les clients Azure OpenAI existants peuvent s'inscrire en remplissant ce formulaire. Ces modèles sont actuellement disponibles dans les régions USA Est et USA Centre Sud.
Nouvelle API conversationnelle pour les modèles GPT-35-Turbo et GPT-4 publiés en préversion le 21/3. Pour en savoir plus, consultez les guides de démarrage rapide mis à jour et l’article Aide et Astuces.
GPT-35-Turbo en préversion. Pour plus d’informations, consultez l’article Aide et Astuces.
Augmentation des limites de formation pour le réglage précis : la taille maximale du travail d’apprentissage (jetons dans le fichier de formation) x (nombre d’époques) est de 2 milliards de jetons pour tous les modèles. Nous avons également augmenté le nombre maximal de travaux de formation de 120 à 720 heures.
Ajout de cas d’usage supplémentaires à votre accès existant. Auparavant, le processus d’ajout de nouveaux cas d’usage obligeait les utilisateurs à se réinscrire au service. À présent, nous publions un nouveau processus qui vous permet d’ajouter rapidement de nouveaux cas d’usage à votre utilisation du service. Ce processus suit le processus d’accès limité établi dans Azure AI Services. Les clients existants peuvent accepter ici tous les nouveaux cas d’usage. Notez que cela est obligatoire chaque fois que vous voulez utiliser le service pour un nouveau cas d’usage que vous n’avez pas demandé à l’origine.
suffix
.Nouveaux articles :
Nouvelle formation :
Disponibilité générale du service. Azure OpenAI Service est maintenant en disponibilité générale.
Nouveaux modèles : ajout du dernier modèle de texte, text-davinci-003 (USA Est, Europe Ouest), text-ada-embeddings-002 (USA Est, USA Centre Sud, Europe Ouest)
Les derniers modèles d’OpenAI. Azure OpenAI fournit l’accès à tous les derniers modèles, y compris la série GPT-3.5.
Nouvelle version de l’API (2022-12-01). Cette mise à jour inclut plusieurs améliorations demandées, notamment les informations sur l’utilisation des jetons dans la réponse de l’API, l’amélioration des messages d’erreur pour les fichiers, l’alignement avec OpenAI sur le réglage de la structure des données de création et la prise en charge du paramètre de suffixe pour permettre l’attribution de noms personnalisés de travaux ajustés.
Limites de requête par seconde plus élevées. 50 pour les modèles autres que Davinci. 20 pour les modèles Davinci.
Déploiements ajustés plus rapides. Déployez des modèles Ada et Curie ajustés en moins de 10 minutes.
Limites de formation plus élevées : 40 millions de jetons de formation pour Ada, Babbage et Curie. 10 millions pour Davinci.
Processus de demande de modifications de l’examen par un humain de la journalisation des données faisant l’objet d’abus d’une utilisation inappropriée. Aujourd’hui, le service consigne les données de demande/réponse à des fins de détection des abus et d’utilisation inappropriée pour s’assurer que ces modèles puissants ne sont pas utilisés de manière incorrecte. Toutefois, de nombreux clients ont des exigences strictes en matière de confidentialité et de sécurité des données qui nécessitent un contrôle accru sur leurs données. Pour prendre en charge ces cas d’usage, nous publions un nouveau processus permettant aux clients de modifier les stratégies de filtrage de contenu ou de désactiver la journalisation des abus pour les cas d’usage à faible risque. Ce processus suit le processus d’accès limité établi dans Azure AI Services et les clients OpenAI existants peuvent s’inscrire ici.
Chiffrement avec une clé gérée par le client (CMK). CMK offre aux clients un meilleur contrôle sur la gestion de leurs données dans Azure OpenAI en fournissant leurs propres clés de chiffrement utilisées pour stocker les données de formation et les modèles personnalisés. Les clés gérées par le client (CMK), également appelées BYOK (Bring Your Own Key), offrent plus de flexibilité pour créer, permuter, désactiver et révoquer des contrôles d’accès. Vous pouvez également effectuer un audit sur les clés de chiffrement utilisées pour protéger vos données. En savoir plus dans notre documentation sur le chiffrement au repos.
Prise en charge de Lockbox
Conformité SOC-2
Journalisation et diagnostics via Azure Resource Health, Analyse des coûts; et Paramètres des métriques et des diagnostics.
Améliorations de Studio. Nombreuses améliorations de la facilité d’utilisation du flux de travail Studio, notamment la prise en charge des rôles Azure AD pour contrôler qui dans l’équipe a accès à la création de modèles ajustés et au déploiement.
L’ajustement de la demande d’API de création a été mis à jour pour correspondre au schéma OpenAI.
Versions de l’API en préversion :
{
"training_file": "file-XGinujblHPwGLSztz8cPS8XY",
"hyperparams": {
"batch_size": 4,
"learning_rate_multiplier": 0.1,
"n_epochs": 4,
"prompt_loss_weight": 0.1,
}
}
API version 2022-12-01 :
{
"training_file": "file-XGinujblHPwGLSztz8cPS8XY",
"batch_size": 4,
"learning_rate_multiplier": 0.1,
"n_epochs": 4,
"prompt_loss_weight": 0.1,
}
Le filtrage de contenu est temporairement désactivé par défaut. La modération du contenu Azure ne fonctionne pas de la même façon qu’Azure OpenAI. Azure OpenAI exécute des filtres de contenu pendant l’appel de génération pour détecter le contenu nuisible ou abusif et le filtre à partir de la réponse. En savoir plus
Ces modèles seront réactivés au T1 2023 et activés par défaut.
Actions des clients
Découvrez-en plus sur les modèles sous-jacents d’Azure OpenAI.
Événements
Créer des applications intelligentes
17 mars, 21 h - 21 mars, 10 h
Rejoignez la série de rencontres pour créer des solutions IA évolutives basées sur des cas d’usage réels avec d’autres développeurs et experts.
S’inscrire maintenantEntrainement
Certification
Microsoft Certified : Azure AI Engineer Associate - Certifications
Concevez et mettez en œuvre une solution Azure AI à l’aide d’Azure AI Services, de Recherche Azure AI et d’Azure Open AI.