Partage via


Quelles sont les nouveautés de Azure OpenAI Service ?

Cet article fournit un résumé des dernières versions et des mises à jour majeures de documentation pour Azure OpenAI.

Mai 2024

Déploiements approvisionnés GPT-4o

Version gpt-4o : 2024-05-13 est disponible pour les déploiements standard et approvisionnés. Les déploiements de modèles approvisionnés et standard acceptent les requêtes d’inférence de texte et d’image/vision. Pour plus d’informations sur la disponibilité régionale du modèle, consultez la matrice de modèles pour les déploiements approvisionnés.

Assistants v2 (préversion)

L’actualisation de l’API Assistants est désormais disponible publiquement. Elle contient les mises à jour suivantes :

  • Outil de recherche de fichiers et stockage vectoriel
  • Prise en charge du nombre maximal de tokens pour la complétion et l'invite pour la gestion de l’utilisation des jetons.
  • paramètretool_choice pour forcer l’Assistant à utiliser un outil spécifié. Vous pouvez maintenant créer des messages avec le rôle d’assistant pour créer des historiques de conversation personnalisés dans Threads.
  • Prise en charge des paramètrestemperature, top_p, response_format.
  • Prise en charge du streaming et de l’interrogation. Vous pouvez utiliser les fonctions d’assistance dans notre Kit de développement logiciel (SDK) Python pour créer des exécutions et diffuser en continu des réponses. Nous avons également ajouté des assistants d’interrogation SDK pour partager les mises à jour de l’état de l’objet sans avoir besoin d’interroger.
  • Expérimentez avec Logic Apps et l’appel de fonction en utilisant Azure OpenAI Studio. Importez vos API REST implémentées dans Logic Apps en tant que fonctions et le studio appelle automatiquement la fonction (en tant que workflow Logic Apps) selon l’invite de l’utilisateur.
  • AutoGen by Microsoft Research fournit une infrastructure de conversation multi-agent pour permettre la création pratique de flux de travail LLM (Large Language Model) sur un large éventail d’applications. Les assistants Azure OpenAI sont désormais intégrés à AutoGen via GPTAssistantAgent, un nouvel agent expérimental qui vous permet d’ajouter en toute transparence des Assistants aux flux de travail multi-agents basés sur AutoGen. Cela permet à plusieurs assistants Azure OpenAI qui peuvent être des tâches ou des domaines spécialisés pour collaborer et traiter des tâches complexes.
  • Prise en charge des gpt-3.5-turbo-0125modèles affinés dans les régions suivantes :
    • USA Est 2
    • Suède Centre
  • Soutien régional élargi pour :
    • Japon Est
    • Sud du Royaume-Uni
    • USA Ouest
    • USA Ouest 3
    • Norvège est

Pour plus d’informations, consultez l’article de blog sur les assistants.

Disponibilité générale (GA) du modèle GPT-4o

GPT-4o (« o » signifie « omni ») est le dernier modèle d’OpenAI lancé le 13 mai 2024.

  • GPT-4o intègre du texte et des images dans un modèle unique, ce qui lui permet de gérer simultanément plusieurs types de données. Cette approche multimodale améliore l'exactitude et la réactivité des interactions homme-machine.
  • GPT-4o correspond à GPT-4 Turbo en texte et en codage en anglais, tout en offrant des performances supérieures dans les autres langues et dans les tâches de vision, en définissant de nouveaux points de référence pour les fonctionnalités d’IA.

Pour plus d’informations sur la disponibilité régionale du modèle, consultez la page des modèles.

Type de déploiement standard global (préversion)

Les déploiements globaux sont disponibles dans les mêmes ressources Azure OpenAI que les offres non globales, mais vous permettent d’exploiter l’infrastructure globale d’Azure pour acheminer dynamiquement le trafic vers le centre de données offrant la meilleure disponibilité pour chaque requête. La norme globale fournit le quota par défaut le plus élevé pour les nouveaux modèles et élimine la nécessité d’équilibrer la charge entre plusieurs ressources.

Pour plus d'informations, consultez le guide des types de déploiement.

Mises à jour de réglage précis

Filtres de contenu configurables DALL-E et GPT-4 Turbo Vision GA

Créez des filtres de contenu personnalisés pour vos déploiements DALL-E 2 et 3 et GPT-4 Turbo avec Vision GA (gpt-4-turbo-2024-04-09). Filtrage du contenu

Filtre asynchrone disponible pour tous les clients Azure OpenAI

L’exécution de filtres de manière asynchrone pour améliorer la latence dans les scénarios de streaming est désormais disponible pour tous les clients Azure OpenAI. Filtrage du contenu

Boucliers d’invite

Prompt Shields protège les applications alimentées par des modèles Azure OpenAI de deux types d’attaques : les attaques directes (jailbreak) et indirectes. Les attaques indirectes (également appelées attaques d’invite indirectes ou attaques par injection d’invite inter-domaines) sont un type d’attaque sur les systèmes alimentés par des modèles d’IA générative qui peuvent se produire lorsqu’une application traite des informations qui n’ont pas été créées directement par le développeur de l’application ou l’utilisateur. Filtrage du contenu

Version de l’API 2024-05-01-preview

Disponibilité générale (GA) du modèle GPT-4 Turbo

La dernière version en disponibilité générale de GPT-4 Turbo est :

  • gpt-4Version :turbo-2024-04-09

Il s’agit du remplacement des modèles en préversion suivants :

  • gpt-4Version :1106-Preview
  • gpt-4Version :0125-Preview
  • gpt-4Version :vision-preview

Différences entre les modèles OpenAI et OpenAI GPT-4 Turbo GA

  • La version d’OpenAI du dernier modèle 0409 Turbo prend en charge le mode JSON et l’appel de fonction pour toutes les requêtes d’inférence.
  • La version d’Azure OpenAI du dernier turbo-2024-04-09 ne prend actuellement pas en charge l’utilisation du mode JSON et l’appel de fonction lors de l’exécution de requêtes d’inférence avec une entrée d’image (vision). Les requêtes d’entrée basées sur du texte (requêtes sans image_url et images incluses) prennent par contre en charge le mode JSON et l’appel de fonction.

Différences par rapport à gpt-4 vision-preview

  • L’intégration des améliorations Vision spécifiques à Azure AI à GPT-4 Turbo avec Vision n’est pas prise en charge pour la gpt-4Version :turbo-2024-04-09. Cela inclut la reconnaissance optique de caractères (OCR), l’ancrage d’objets, les invites vidéo et la gestion améliorée de vos données avec des images.

Disponibilité managée approvisionnée de GPT-4 Turbo

  • gpt-4version turbo-2024-04-09 est disponible pour les déploiements standard et approvisionnés. Actuellement, la version approvisionnée de ce modèle ne prend pas en charge les requêtes d’inférence d’image/vision. Les déploiements approvisionnés de ce modèle acceptent uniquement les entrées de texte. Les déploiements de modèles standard acceptent les requêtes d’inférence de texte et d’image/vision.

Disponibilité dans les régions

Pour plus d’informations sur la disponibilité régionale du modèle, consultez la matrice de modèles pour les déploiements standard et approvisionnés.

Déploiement de la disponibilité générale de GPT-4 Turbo avec Vision

Pour déployer le modèle en disponibilité générale à partir de l’interface utilisateur Studio, sélectionnez GPT-4, puis choisissez la version turbo-2024-04-09 du menu de la liste déroulante. Le quota par défaut pour le modèle gpt-4-turbo-2024-04-09 est le même que le quota actuel pour GPT-4-Turbo. Voir les limites de quota régionales.

Avril 2024

Le fine-tuning est désormais pris en charge dans deux nouvelles régions : USA Est 2 et Suisse Ouest

Le fine-tuning est désormais disponible avec prise en charge des régions suivantes :

USA Est 2

  • gpt-35-turbo (0613)
  • gpt-35-turbo (1106)
  • gpt-35-turbo (0125)

Suisse Ouest

  • babbage-002
  • davinci-002
  • gpt-35-turbo (0613)
  • gpt-35-turbo (1106)
  • gpt-35-turbo (0125)

Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles et du réglage précis dans chaque région.

Exemples de formation d’invite multitour

Le fine-tuning prend désormais en charge des exemples de formation d’invite multitour.

GPT-4 (0125) est disponible pour Azure OpenAI sur vos données

Vous pouvez maintenant utiliser le modèle GPT-4 (0125) dans les régions disponibles avec Azure OpenAI sur vos données.

Mars 2024

Surveillance des risques et de la sécurité dans Azure OpenAI Studio

Azure OpenAI Studio fournit désormais un tableau de bord Risques et sécurité pour chacun de vos déploiements qui utilise une configuration de filtre de contenu. Utilisez-le pour vérifier les résultats de l’activité de filtrage. Vous pouvez ensuite ajuster votre configuration de filtre pour mieux répondre aux besoins de votre entreprise et respecter les principes de l’IA responsable.

Utiliser Surveillance des risques et de la sécurité

Mises à jour d’Azure OpenAI sur vos données

  • Vous pouvez maintenant vous connecter à une base de données vectorielle Elasticsearch à utiliser avec Azure OpenAI sur vos données.
  • Vous pouvez utiliser le paramètre de taille de bloc pendant l’ingestion des données pour définir le nombre maximal de jetons de n’importe quel segment de données donné dans votre index.

2024-02-01 API en disponibilité générale publiée

Il s’agit de la dernière version de l’API GA et remplace la version GA précédente du 2023-05-15. Cette version ajoute la prise en charge des dernières fonctionnalités d’Azure OpenAI GA telles que Whisper, DALLE-3, réglage précis, sur vos données, etc.

Les fonctionnalités qui sont toujours en préversion, telles que les Assistants, la synthèse vocale (TTS), certaines de vos sources de données de données, nécessitent toujours une version préliminaire de l’API. Pour plus d’informations, consultez notre Guide sur le cycle de vie des versions de l’API.

Disponibilité générale (GA) de Whisper

Le modèle de reconnaissance vocale Whisper est désormais en disponibilité générale pour REST et Python. Les kits de développement logiciel de bibliothèque de client sont actuellement en préversion publique.

Essayez Whisper en suivant un guide de démarrage rapide.

Disponibilité générale (GA) de DALL-E 3

Le modèle de génération d’images DALL-E 3 est désormais en disponibilité générale pour REST et Python. Les kits de développement logiciel de bibliothèque de client sont actuellement en préversion publique.

Essayez DALL-E 3 en suivant un démarrage rapide.

Nouveau support régional pour DALL-E 3

Vous pouvez désormais accéder à DALL-E 3 avec une ressource Azure OpenAI dans la région Azure East US ou AustraliaEast, en plus de SwedenCentral.

Dépréciations et mises hors service des modèles

Nous avons ajouté une page pour suivre les dépréciations et les mises hors service de modèles dans Azure OpenAI Service. Cette page fournit des informations sur les modèles qui sont actuellement disponibles, déconseillés ou supprimés.

Publication de l’API 2024-03-01-preview

2024-03-01-preview a toutes les mêmes fonctionnalités que 2024-02-15-preview et ajoute deux nouveaux paramètres pour les incorporations :

  • encoding_format vous permet de spécifier le format pour générer des incorporations dans float, ou base64. Par défaut, il s’agit de float.
  • dimensions vous permet de définir le nombre d’incorporations de sortie. Ce paramètre est pris en charge uniquement avec les nouveaux modèles d’incorporation de troisième génération : text-embedding-3-large, text-embedding-3-small. En règle générale, les incorporations plus volumineuses sont plus coûteuses du point de vue du calcul, de la mémoire et du stockage. La possibilité d'ajuster le nombre de dimensions permet de mieux contrôler le coût global et les performances. Le paramètre dimensions n’est pas pris en charge dans toutes les versions de la bibliothèque Python OpenAI 1.x. Pour tirer parti de ce paramètre, nous vous recommandons de procéder à la mise à niveau vers la dernière version : pip install openai --upgrade.

Si vous utilisez actuellement une version de l’API en préversion pour tirer parti des dernières fonctionnalités, nous vous recommandons de consulter l’article sur le cycle de vie de la version de l’API pour suivre la durée de prise en charge de votre version actuelle de l’API.

Mise à jour vers les plans de mise à niveau GPT-4-1106-Preview

La mise à niveau du déploiement de gpt-4 1106-Preview vers gpt-4 0125-Preview planifiée pour le 8 mars 2024 n’a plus lieu. Les déploiements des versions gpt-4 1106-Preview et 0125-Preview définis sur « Mise à jour automatique par défaut » et « Mise à niveau en cas d’expiration » commenceront à être mis à niveau après la publication d’une version stable du modèle.

Pour plus d’informations sur le processus de mise à niveau, reportez-vous à la page modèles.

Février 2024

Modèle GPT-3.5-turbo-0125 disponible

Ce modèle présente différentes améliorations, notamment une précision plus élevée pour répondre aux formats demandés et un correctif pour un bogue qui a provoqué un problème d’encodage de texte pour les appels de fonction de langue autre que l’anglais.

Pour obtenir des informations sur la disponibilité régionale du modèle et les mises à niveau, consultez la page des modèles.

Modèles d’incorporation de troisième génération disponibles

  • text-embedding-3-large
  • text-embedding-3-small

Dans les tests, OpenAI signale à la fois les grands et petits modèles d’incorporation de troisième génération qui offrent de meilleures performances de récupération multi-langues moyennes avec le point de référence MIRACL tout en conservant de meilleures performances pour les tâches anglaises avec le point de référence MTEB que le modèle text-embedding-ada-002 de deuxième génération.

Pour obtenir des informations sur la disponibilité régionale du modèle et les mises à niveau, consultez la page des modèles.

Consolidation de quota GPT-3.5 Turbo

Pour simplifier la migration entre différentes versions des modèles GPT-3.5-Turbo (y compris 16k), nous allons consolider tous les quotas GPT-3.5-Turbo en une seule valeur de quota.

  • Tous les clients qui ont augmenté le quota approuvé disposeront d’un quota total combiné qui reflète les augmentations précédentes.

  • Tout client dont l’utilisation totale actuelle entre les versions de modèle est inférieure à la valeur par défaut obtiendra un nouveau quota total combiné par défaut.

Modèle GPT-4-0125-preview disponible

La version de modèle gpt-40125-preview est désormais disponible sur Azure OpenAI Service dans les régions USA Est, USA Centre Nord et USA Centre Sud. Les clients avec des déploiements de gpt-4 version 1106-preview seront automatiquement mis à niveau vers 0125-preview au cours des prochaines semaines.

Pour obtenir des informations sur la disponibilité régionale du modèle et les mises à niveau, consultez la page des modèles.

Préversion publique de l’API Assistants

Azure OpenAI prend désormais en charge l’API qui alimente les GPT d’OpenAI. Les Assistants Azure OpenAI (préversion) vous permettent de créer des assistants IA adaptés à vos besoins par le biais d’instructions personnalisées et des outils avancés tels que l’interpréteur de code et les fonctions personnalisées. Pour en savoir plus, consultez :

Préversion publique des voix de synthèse vocale OpenAI

Azure OpenAI Service prend désormais en charge les API de synthèse vocale avec les voix d’OpenAI. Obtenez la voix générée par l’IA à partir du texte que vous fournissez. Pour plus d’informations, consultez le guide de présentation et essayez le démarrage rapide.

Remarque

Azure AI Speech prend également en charge les voix de synthèse vocale OpenAI. Pour plus d’informations, consultez le guide Voix de synthèse vocale OpenAI via Azure OpenAI Service ou via Azure AI Speech.

Nouvelles fonctionnalités de réglage précis et prise en charge des modèles

Nouvelle prise en charge régionale d’Azure OpenAI sur vos données

Vous pouvez maintenant utiliser Azure OpenAI sur vos données dans la région Azure suivante :

  • Afrique du Sud Nord

Disponibilité générale d’Azure OpenAI sur vos données

Décembre 2023

Azure OpenAI sur vos données

  • Prise en charge complète du VPN et des points de terminaison privés pour Azure OpenAI sur vos données, y compris la prise en charge de la sécurité pour : les comptes de stockage, les ressources Azure OpenAI et les ressources du service Recherche Azure AI.
  • Nouvel article pour utiliser Azure OpenAI sur vos données en toute sécurité en protégeant les données avec des réseaux virtuels et des points de terminaison privés.

GPT-4 Turbo avec Vision maintenant disponible

GPT-4 Turbo avec Vision sur le service Azure OpenAI est maintenant en avant-première publique. GPT-4 Turbo avec Vision est un grand modèle multimodal (LMM) développé par OpenAI qui peut analyser des images et fournir des réponses textuelles à des questions les concernant. Il intègre à la fois le traitement du langage naturel et la compréhension visuelle. Avec le mode amélioré, vous pouvez utiliser les fonctionnalités Azure AI Vision pour générer des aperçus supplémentaires à partir des images.

  • Explorez les fonctionnalités de GPT-4 Turbo avec Vision dans une expérience sans code en utilisant Azure OpenAI Playground. En savoir plus dans le guide de Démarrage rapide.
  • L’amélioration de la vision en utilisant GPT-4 Turbo avec Vision est désormais disponible dans Azure OpenAI Playground et inclut la prise en charge de la reconnaissance optique des caractères, l’ancrage des objets, la prise en charge des images pour « ajouter vos données » et la prise en charge des invites vidéo.
  • Effectuez des appels à l’API de conversation directement à l’aide de l’API REST.
  • La disponibilité de la région est actuellement limitée à SwitzerlandNorth, SwedenCentral, WestUS et AustraliaEast
  • En savoir plus sur les limitations connues de GPT-4 Turbo avec Vision et d’autres questions fréquentes.

Novembre 2023

Nouvelle prise en charge des sources de données dans Azure OpenAI sur vos données

  • Vous pouvez désormais utiliser Azure Cosmos DB for MongoDB vCore ainsi que des URL/adresses web comme sources de données pour ingérer vos données et discuter avec un modèle Azure OpenAI pris en charge.

Publication de GPT-4 Turbo Preview et GPT-3.5-Turbo-1106

Les deux modèles sont la dernière version d’OpenAI avec des instructions améliorées suivantes, le mode JSON, la sortie reproductible et l’appel de fonction parallèle.

  • Préversion GPT-4 Turbo a une fenêtre contextuelle maximale de 128 000 jetons et peut générer 4 096 jetons de sortie. Il contient les dernières données d’apprentissage avec des connaissances jusqu’en avril 2023. Ce modèle est en préversion et n’est pas recommandé pour une utilisation en production. Tous les déploiements de ce modèle en préversion seront automatiquement mis à jour une fois la version stable disponible.

  • GPT-3.5-Turbo-1106 a une fenêtre contextuelle maximale de 16 385 jetons et peut générer 4 096 jetons de sortie.

Pour plus d’informations sur la disponibilité régionale du modèle, consultez la page des modèles.

Les modèles ont leur propre allocation de quota unique par région.

DALL-E 3 en préversion publique

DALL-E 3 est le dernier modèle de génération d’images à partir d’OpenAI. Il offre une qualité d’image améliorée, des scènes plus complexes et des performances améliorées lors de l’affichage du texte dans des images. Il est également fourni avec plus d’options de proportions. DALL-E 3 est disponible via OpenAI Studio et via l’API REST. Votre ressource OpenAI doit se trouver dans la région Azure SwedenCentral.

DALL-E 3 inclut la réécriture d’invite intégrée pour améliorer les images, réduire les biais et augmenter la variation naturelle.

Essayez DALL-E 3 en suivant un démarrage rapide.

IA responsable

  • Configurabilité étendue des clients : tous les clients Azure OpenAI peuvent désormais configurer tous les niveaux de gravité (faible, moyen, élevé) pour les catégories haine, violence, préjudice sexuel et auto-préjudice, y compris le filtrage uniquement du contenu de gravité élevée. Configurer des filtres de contenu

  • Informations d’identification de contenu dans tous les modèles DALL-E : les images générées par l’IA à partir de tous les modèles DALL-E incluent désormais des informations d’identification numériques qui divulguent le contenu en tant que généré par l’IA. Les applications qui affichent des ressources d’image peuvent tirer parti du Kit de développement logiciel (SDK) Content Authentic Initiative open source pour afficher les informations d’identification dans leurs images générées par l’IA. informations d’identification de contenu dans Azure OpenAI

  • Nouveaux modèles RAI

    • Détection des risques de jailbreak : les attaques de jailbreak sont des invites utilisateur conçues pour provoquer le modèle d’IA générative dans des comportements qu’elle a été entraînée pour éviter ou pour rompre les règles définies dans le message système. Le modèle de détection des risques de jailbreak est facultatif (désactivé par défaut) et disponible dans un modèle d’annotation et filtre. Il s’exécute sur les invites de l’utilisateur.
    • Texte de matériau protégé : le texte de matériau protégé décrit le contenu texte connu (par exemple, les paroles de chanson, les articles, les recettes et le contenu web sélectionné) qui peuvent être générés par de grands modèles linguistiques. Le modèle de texte de matériau protégé est facultatif (désactivé par défaut) et disponible dans un modèle d’annotation et filtre. Il s’exécute sur les achèvements LLM.
    • Code matériau protégé : le code matériau protégé décrit le code source qui correspond à un ensemble de code source à partir de référentiels publics, qui peuvent être générés par des modèles de langage volumineux sans citation appropriée des référentiels sources. Le modèle de code matériau protégé est facultatif (désactivé par défaut) et disponible dans un modèle d’annotation et filtre. Il s’exécute sur les achèvements LLM.

    Configurer des filtres de contenu

  • Listes de blocage : les clients peuvent désormais personnaliser rapidement le comportement du filtre de contenu pour les invites et les achèvements en créant une liste de blocage personnalisée dans leurs filtres. La liste de blocage personnalisée permet au filtre d’agir sur une liste personnalisée de modèles, comme des termes spécifiques ou des modèles regex. En plus des listes de blocage personnalisées, nous fournissons une liste de blocage de profanité Microsoft (anglais). Utiliser des listes de blocage

Octobre 2023

Nouveaux modèles de réglage précis (préversion)

Azure OpenAI sur vos données

  • Nouveaux paramètres personnalisés pour déterminer le nombre de documents récupérés et la rigueur.
    • Le paramètre de rigueur définit le seuil à partir duquel les documents sont classés comme pertinents pour vos requêtes.
    • Le paramètre des documents récupérés spécifie le nombre de documents les mieux notés de votre index de données utilisés pour générer des réponses.
  • Vous pouvez consulter l’état de l’ingestion/du chargement des données dans Azure OpenAI Studio.
  • Prise en charge des points de terminaison privés et des VPN pour les conteneurs d’objets blob.

September 2023

GPT-4

GPT-4 et GPT-4-32k sont désormais accessibles à tous les clients Azure OpenAI Service. Les clients n’ont plus besoin de s’inscrire à la liste d’attente pour utiliser GPT-4 et GPT-4-32k (les conditions d’inscription à l’accès limité continuent de s’appliquer à tous les modèles Azure OpenAI). La disponibilité peut varier selon la région. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.

GPT-3.5 Turbo Instruct

Azure OpenAI Service prend désormais en charge le modèle GPT-3.5 Turbo Instruct. Ce modèle a des performances comparables à text-davinci-003 et est disponible pour l'API Completions. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.

Aperçu public chuchoté

Azure OpenAI Service prend désormais en charge les API de synthèse vocale basées sur le modèle Whisper d'OpenAI. Obtenez du texte généré par l'IA en fonction de l'audio vocal que vous fournissez. Pour en savoir plus, consultez le guide de démarrage rapide.

Remarque

Azure AI Speech prend également en charge le modèle Whisper d'OpenAI via l'API de transcription par lots. Pour en savoir plus, consultez le guide Créer une transcription par lots. Découvrez Qu'est-ce que le modèle Whisper ? pour en savoir plus sur quand utiliser Azure AI Speech par rapport à Azure OpenAI Service.

Nouvelles régions

  • Azure OpenAI est désormais également disponible dans les régions Suède Centre et Suisse Nord. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.

Augmentation des limites de quota régionales

  • Augmente les limites de quota par défaut maximales pour certains modèles et régions. La migration des charges de travail vers ces modèles et régions vous permet de tirer parti de jetons par minute (TPM) plus élevés.

Août 2023

Azure OpenAI sur les mises à jour de vos propres données (préversion)

Juillet 2023

Prise en charge de l’appel de fonction

Augmentation de l’incorporation d’un tableau d’entrée

Nouvelles régions

  • Azure OpenAI est désormais également disponible dans les régions Canada Est, USA Est 2, Japon Est et USA Centre Nord. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.

Juin 2023

Utilisez Azure OpenAI sur vos propres données (préversion)

  • Azure OpenAI sur vos données est désormais disponible en préversion. Cet outil vous permet de discuter avec des modèles OpenAI tels que GPT-35-Turbo et GPT-4, ainsi que de recevoir des réponses basées sur vos données.

Nouvelles versions des modèles gpt-35-turbo et gpt-4

  • gpt-35-turbo (version 0613)
  • gpt-35-turbo-16k (version 0613)
  • gpt-4 (version 0613)
  • gpt-4-32k (version 0613)

Sud du Royaume-Uni

  • Azure OpenAI est désormais disponible dans la région Royaume-Uni Sud. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.

Filtrage et annotations de contenu (préversion)

Quota

Mai 2023

Prise en charge du kit de développement logiciel (SDK) Java et JavaScript

  • NOUVEAUX kits de développement logiciel (SDK) Azure OpenAI en préversion offrant une prise en charge de JavaScript et de Java.

Disponibilité générale (GA) de l’achèvement de conversation Azure OpenAI

  • Disponibilité générale prise en charge pour :
    • Version 2023-05-15 de l’API d’achèvement de conversation.
    • Modèles GPT-35-Turbo.
    • Série de modèles GPT-4.

Si vous utilisez actuellement l’API 2023-03-15-preview, nous vous recommandons une migration vers l’API 2023-05-15 en disponibilité générale. Si vous utilisez actuellement la version 2022-12-01 de l’API, cette API reste en disponibilité générale, mais n’inclut pas les dernières fonctionnalités d’achèvement de conversation.

Important

L’utilisation des versions actuelles des modèles GPT-35-Turbo avec le point de terminaison d’achèvement demeure en préversion.

France Centre

  • Azure OpenAI est désormais disponible dans la région France Centre. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.

Avril 2023

  • DALL-E 2 en préversion publique. Azure OpenAI Service prend désormais en charge les API de génération d’images basées sur le modèle DALL-E 2 d’OpenAI. Obtenez des images générées par l’IA en fonction du texte descriptif que vous fournissez. Pour en savoir plus, consultez le guide de démarrage rapide. Pour demander l’accès, les clients Azure OpenAI existants peuvent s'inscrire en remplissant ce formulaire.

  • Les déploiements inactifs de modèles personnalisés vont désormais être supprimés après 15 jours ; les modèles vont rester disponibles pour le redéploiement. Si un modèle personnalisé (ajusté) est déployé pendant plus de quinze (15) jours pendant lesquels aucun appel d’achèvement ou d’achèvement de conversation n’est effectué, le déploiement est automatiquement supprimé (et aucun autre frais d’hébergement n’est facturé pour ce déploiement). Le modèle personnalisé sous-jacent reste disponible et peut être redéployé à tout moment. Pour plus d’informations, consultez l’article de procédure correspondant.

Mars 2023

  • Les modèles de la série GPT-4 sont désormais disponibles en préversion dans Azure OpenAI. Pour demander l’accès, les clients Azure OpenAI existants peuvent s'inscrire en remplissant ce formulaire. Ces modèles sont actuellement disponibles dans les régions USA Est et USA Centre Sud.

  • Nouvelle API conversationnelle pour les modèles GPT-35-Turbo et GPT-4 publiés en préversion le 21/3. Pour en savoir plus, consultez les guides de démarrage rapide mis à jour et l’article de guide pratique.

  • GPT-35-Turbo en préversion. Pour plus d’informations, consultez l’article de guide pratique.

  • Augmentation des limites de formation pour le réglage précis : la taille maximale du travail d’apprentissage (jetons dans le fichier de formation) x (nombre d’époques) est de 2 milliards de jetons pour tous les modèles. Nous avons également augmenté le nombre maximal de travaux de formation de 120 à 720 heures.

  • Ajout de cas d’usage supplémentaires à votre accès existant.  Auparavant, le processus d’ajout de nouveaux cas d’usage obligeait les utilisateurs à se réinscrire au service. À présent, nous publions un nouveau processus qui vous permet d’ajouter rapidement de nouveaux cas d’usage à votre utilisation du service. Ce processus suit le processus d’accès limité établi dans Azure AI Services. Les clients existants peuvent accepter ici tous les nouveaux cas d’usage. Cette acceptation est obligatoire chaque fois que vous souhaitez utiliser le service pour un nouveau cas d’usage que vous n’avez pas demandé à l’origine.

Février 2023

Nouvelles fonctionnalités

  • Préversion du SDK .NET (inférence) | Exemples
  • Mise à jour du SDK Terraform pour prendre en charge les opérations de gestion Azure OpenAI.
  • L’insertion de texte à la fin d’une saisie semi-automatique est désormais prise en charge avec le paramètre suffix.

Mises à jour

  • Le filtrage de contenu est activé par défaut.

Nouveaux articles :

Nouvelle formation :

Janvier 2023

Nouvelles fonctionnalités

  • Disponibilité générale du service. Azure OpenAI Service est maintenant en disponibilité générale.

  • Nouveaux modèles : ajout du dernier modèle de texte, text-davinci-003 (USA Est, Europe Ouest), text-ada-embeddings-002 (USA Est, USA Centre Sud, Europe Ouest)

Décembre 2022

Nouvelles fonctionnalités

  • Les derniers modèles d’OpenAI. Azure OpenAI fournit l’accès à tous les derniers modèles, y compris la série GPT-3.5.

  • Nouvelle version de l’API (2022-12-01). Cette mise à jour inclut plusieurs améliorations demandées, notamment les informations sur l’utilisation des jetons dans la réponse de l’API, l’amélioration des messages d’erreur pour les fichiers, l’alignement avec OpenAI sur le réglage de la structure des données de création et la prise en charge du paramètre de suffixe pour permettre l’attribution de noms personnalisés de travaux ajustés. ​

  • Limites de requête par seconde plus élevées. 50 pour les modèles autres que Davinci. 20 pour les modèles Davinci.

  • Déploiements ajustés plus rapides. Déployez des modèles Ada et Curie ajustés en moins de 10 minutes.

  • Limites de formation plus élevées : 40 millions de jetons de formation pour Ada, Babbage et Curie. 10 millions pour Davinci.

  • Processus de demande de modifications de l’examen par un humain de la journalisation des données faisant l’objet d’abus d’une utilisation inappropriée. Aujourd’hui, le service consigne les données de demande/réponse à des fins de détection des abus et d’utilisation inappropriée pour s’assurer que ces modèles puissants ne sont pas utilisés de manière incorrecte. Toutefois, de nombreux clients ont des exigences strictes en matière de confidentialité et de sécurité des données qui nécessitent un contrôle accru sur leurs données. Pour prendre en charge ces cas d’usage, nous publions un nouveau processus permettant aux clients de modifier les stratégies de filtrage de contenu ou de désactiver la journalisation des abus pour les cas d’usage à faible risque. Ce processus suit le processus d’accès limité établi dans Azure AI Services et les clients OpenAI existants peuvent s’inscrire ici.

  • Chiffrement avec une clé gérée par le client (CMK). CMK offre aux clients un meilleur contrôle sur la gestion de leurs données dans Azure OpenAI en fournissant leurs propres clés de chiffrement utilisées pour stocker les données de formation et les modèles personnalisés. Les clés gérées par le client (CMK), également appelées BYOK (Bring Your Own Key), offrent plus de flexibilité pour créer, permuter, désactiver et révoquer des contrôles d’accès. Vous pouvez également effectuer un audit sur les clés de chiffrement utilisées pour protéger vos données. En savoir plus dans notre documentation sur le chiffrement au repos.

  • Prise en charge de Lockbox

  • Conformité SOC-2

  • Journalisation et diagnostics via Azure Resource Health, Analyse des coûts; et Paramètres des métriques et des diagnostics.

  • Améliorations de Studio. Nombreuses améliorations de la facilité d’utilisation du flux de travail Studio, notamment la prise en charge des rôles Azure AD pour contrôler qui dans l’équipe a accès à la création de modèles ajustés et au déploiement.

Changements (cassants)

L’ajustement de la demande d’API de création a été mis à jour pour correspondre au schéma OpenAI.

Versions de l’API en préversion :

{​
    "training_file": "file-XGinujblHPwGLSztz8cPS8XY",​
    "hyperparams": { ​
        "batch_size": 4,​
        "learning_rate_multiplier": 0.1,​
        "n_epochs": 4,​
        "prompt_loss_weight": 0.1,​
    }​
}

API version 2022-12-01 :

{​
    "training_file": "file-XGinujblHPwGLSztz8cPS8XY",​
    "batch_size": 4,​
    "learning_rate_multiplier": 0.1,​
    "n_epochs": 4,​
    "prompt_loss_weight": 0.1,​
}

Le filtrage de contenu est temporairement désactivé par défaut. La modération du contenu Azure ne fonctionne pas de la même façon qu’Azure OpenAI. Azure OpenAI exécute des filtres de contenu pendant l’appel de génération pour détecter le contenu nuisible ou abusif et le filtre à partir de la réponse. En savoir plus​

Ces modèles seront réactivés au T1 2023 et activés par défaut. ​

Actions des clients

Étapes suivantes

Découvrez-en plus sur les modèles sous-jacents d’Azure OpenAI.