Qu’est-ce qu’Azure OpenAI Service ?

Azure OpenAI Service fournit un accès par l’API REST aux puissants modèles de langage d’OpenAI, dont les séries de modèles GPT-4, GPT-4 Turbo avec Vision, GPT-3.5-Turbo et d’incorporation. Les nouvelles séries de modèles GPT-4 et gpt-3.5-turbo sont en plus désormais en disponibilité générale. Ces modèles peuvent être facilement adaptés à des tâches spécifiques, comme la génération de contenu, le résumé, la compréhension d’images, la recherche sémantique, le langage naturel et la traduction de code, entre autres. Les utilisateurs peuvent accéder au service par le biais des API REST, du SDK Python ou de notre interface web dans Azure OpenAI Studio.

Présentation des fonctionnalités

Fonctionnalité Azure OpenAI
Modèles disponibles Série GPT-4 (y compris GPT-4 Turbo avec Vision)
Série GPT-3.5-Turbo
Série d’incorporations
Pour en savoir plus, consultez notre page Modèles.
Mise au point (aperçu) GPT-3.5-Turbo (0613)
babbage-002
davinci-002.
Price Disponible ici
Pour en savoir plus sur GPT-4 Turbo avec Vision, consultez les informations sur les tarifs spéciaux.
Prise en charge des réseaux virtuels et prise en charge des liaisons privées Oui, sauf si vous utilisez Azure OpenAI sur vos données.
Identité managée Oui, par le biais de Microsoft Entra ID
Expérience d’interface utilisateur Portail Azure pour la gestion des comptes et des ressources,
Azure OpenAI Service Studio pour l’exploration et l’optimisation des modèles
Disponibilité régionale du modèle Disponibilité du modèle
Filtrage du contenu Les invites et les complétions sont évaluées par rapport à notre stratégie de contenu avec des systèmes automatisés. Le contenu de gravité élevée est filtré.

Intelligence artificielle responsable

Chez Microsoft, nous avons engagé une démarche d’amélioration de l’intelligence artificielle (l’IA) basée sur des principes qui placent les utilisateurs au centre de nos préoccupations. Les modèles générateurs tels que ceux disponibles dans Azure OpenAI Service présentent des avantages potentiels significatifs, mais sans une conception minutieuse et des atténuations réfléchies, ces modèles peuvent aussi générer du contenu incorrect voire dangereux. Microsoft a fait de gros efforts pour renforcer la protection contre les abus et les préjudices non intentionnels. Citons l’obligation pour les demandeurs de présenter des cas d’usage bien définis, l’intégration des principes de Microsoft pour une utilisation responsable de l’IA, la création de filtres de contenu pour aider les clients et la fourniture de conseils aux clients intégrés pour implémenter une IA responsable.

Comment faire pour accéder à Azure OpenAI ?

Comment faire pour accéder à Azure OpenAI ?

L’accès est actuellement limité, car nous sommes concentrés sur les prochaines améliorations de produits très attendues, et sur l’engagement de Microsoft pour une IA responsable. Pour l’instant, nous travaillons avec des clients qui ont déjà établi un partenariat avec Microsoft, qui ont des cas d’usage à risque réduit et qui se sont engagés à intégrer des atténuations.

Vous trouverez des informations plus détaillées dans le formulaire de demande. Nous vous remercions pour votre patience durant cette période où nous travaillons à l’élargissement de l’accès au service Azure OpenAI, et ce de manière responsable.

Appliquez ici pour y accéder :

Appliquer maintenant

Comparaison d’Azure OpenAI et OpenAI

Azure OpenAI Service offre aux clients une IA de langage avancée avec les modèles OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper, et les modèles de synthèse vocale avec la promesse de sécurité et d’entreprise d’Azure. Azure OpenAI co-développe les API avec OpenAI, garantissant la compatibilité et une transition en douceur de l’une à l’autre.

Avec Azure OpenAI, les clients bénéficient des fonctionnalités de sécurité de Microsoft Azure tout en exécutant les mêmes modèles qu’OpenAI. Azure OpenAI offre une mise en réseau privé, une disponibilité régionale et un filtrage de contenu d’IA responsable.

Concepts clés

Invites et complétions

Le point de terminaison de saisie semi-automatique est le composant principal du service API. Cette API fournit l’accès à l’interface d’entrée et de sortie de texte du modèle. Les utilisateurs doivent simplement fournir une invite d’entrée contenant la commande de texte en anglais, et le modèle génère une saisie semi-automatique.

Voici un exemple d’invite et de saisie semi-automatique simples :

Invite : """ count to 5 in a for loop """

Saisie semi-automatique : for i in range(1, 6): print(i)

Jetons

Jetons de texte

OpenAI Enterprise traite le texte en le décomposant en jetons. Les jetons peuvent être des mots ou simplement des blocs de caractères. Par exemple, le mot « hamburger » se divise en jetons « ham », « bur » et « ger », tandis qu’un mot court et commun comme « poire » est un seul jeton. De nombreux jetons commencent par un espace, par exemple « hello » et « bye ».

Le nombre total de jetons traités dans une requête donnée dépend de la longueur de vos paramètres d’entrée, de sortie et de requête. La quantité de jetons en cours de traitement affecte également la latence et le débit de votre réponse pour les modèles.

Jetons d’image (GPT-4 Turbo avec Vision)

Le coût en jetons d’une image d’entrée dépend de deux facteurs principaux : la taille de l’image et le niveau de détail (faible ou élevé) utilisé pour chaque image. Voici une décomposition de son fonctionnement :

  • Détail : mode basse résolution

    • Un niveau de détail faible permet à l’API de retourner des réponses plus rapides et de consommer moins de jetons d’entrée pour les cas d’usage qui ne nécessitent pas un niveau de détail élevé.
    • Ces images coûtent 85 jetons chacune, quelle que soit leur taille.
    • Exemple : Une image de 4096 x 8192 (faible niveau de détail) : Le coût est fixé à 85 jetons, car il s’agit d’une image peu détaillée, et la taille n’affecte pas le coût dans ce mode.
  • Détail : mode haute résolution

    • Le niveau de détail élevé permet à l’API de voir l’image de manière plus détaillée en la rognant en carrés plus petits. Chaque carré utilise davantage de jetons pour générer du texte.
    • Le coût du jeton est calculé par une série d’étapes de mise à l’échelle :
      1. L’image est d’abord mise à l’échelle pour s’adapter à un carré de 2048 x 2048 tout en conservant ses proportions.
      2. L’image est ensuite mise à l’échelle afin que le côté le plus court soit de 768 pixels de long.
      3. L’image est divisée en mosaïques carrées de 512 pixels, et le nombre de ces mosaïques (arrondi à l’unité supérieure pour les mosaïques partielles) détermine le coût final. Chaque mosaïque coûte 170 jetons.
      4. 85 jetons supplémentaires sont ajoutés au coût total.
    • Exemple : une image de 2048 x 4096 (haut niveau de détail)
      1. Initialement redimensionnée en 1024 x 2048 pour s’adapter au carré de 2048.
      2. Ensuite redimensionnée en 768 x 1536.
      3. Nécessite six vignettes de 512 px pour couvrir l’image.
      4. Le coût total est de 170 × 6 + 85 = 1105 jetons.

Ressources

Azure OpenAI est une nouvelle offre de produit sur Azure. Vous pouvez commencer à utiliser Azure OpenAI comme n’importe quel autre produit Azure où vous créez une ressource, ou une instance du service, dans votre abonnement Azure. Vous pouvez en savoir plus sur la conception de gestion des ressources Azure.

Déploiements

Une fois que vous avez créé une ressource Azure OpenAI, vous devez déployer un modèle avant de commencer à effectuer des appels d’API et à générer du texte. Cette action peut être effectuée à l’aide d’API de déploiement. Ces API vous permettent de spécifier le modèle que vous souhaitez utiliser.

Demander à l’ingénierie

Les modèles GPT-3, GPT-3.5 et GPT-4 d’OpenAI sont basés sur des invites. Dans le cas d’un modèle basé sur des invites, l’utilisateur interagit avec le modèle en entrant une invite de texte, à laquelle le modèle répond par une saisie semi-automatique. Cette saisie semi-automatique est la continuation du texte d’entrée par le modèle.

Bien que ces modèles soient extrêmement puissants, leur comportement est également très sensible à l’invite. La demander à l’ingénierie est dès lors une compétence importante à développer.

La construction de l’invite peut être difficile. Dans la pratique, l’invite agit pour configurer les pondérations du modèle pour accomplir la tâche souhaitée. Il s’agit toutefois plus d’un art que d’une science, qui nécessite souvent de l’expérience et de l’intuition pour créer une invite réussie.

Modèles

Le service permet aux utilisateurs d’accéder à plusieurs modèles différents. Chaque modèle fournit une fonctionnalité et un prix différents.

Les modèles DALL-E (certains en préversion ; consultez modèles) génèrent des images à partir d’invites de texte que l’utilisateur fournit.

Les modèles Whisper peuvent être utilisés pour transcrire et traduire la reconnaissance vocale.

Les modèles de synthèse vocale, actuellement en préversion, peuvent être utilisés pour convertir du texte par synthèse vocale.

En savoir plus sur chaque modèle sur notre page de concept de modèles.

Étapes suivantes

Découvrez-en plus sur les modèles sous-jacents d’Azure OpenAI.