Qu’est-ce qu’Azure OpenAI Service ?
Azure OpenAI Service fournit un accès API REST aux puissants modèles de langage d'OpenAI, notamment les séries de modèles o1-preview, o1-mini, GPT-4o, GPT-4o mini, GPT-4 Turbo avec Vision, GPT-4, GPT-3.5-Turbo et Incorporations. Ces modèles peuvent être facilement adaptés à des tâches spécifiques, comme la génération de contenu, le résumé, la compréhension d’images, la recherche sémantique, le langage naturel et la traduction de code, entre autres. Les utilisateurs peuvent accéder au service via des API REST, du Kit de développement logiciel (SDK) Python ou d’Azure AI Studio.
Présentation des fonctionnalités
Fonctionnalité | Azure OpenAI |
---|---|
Modèles disponibles | o1-preview et o1-mini : (Accès limité : Demander l’accès) GPT-4o et GPT-4o mini Série GPT-4 (y compris GPT-4 Turbo avec Vision) Série GPT-3.5-Turbo Série d’incorporations Pour en savoir plus, consultez notre page Modèles. |
Optimisation | GPT-4o-mini (préversion) GPT-4 (préversion) GPT-3.5-Turbo (0613) babbage-002 davinci-002 . |
Price | Disponible ici Pour en savoir plus sur GPT-4 Turbo avec Vision, consultez les informations sur les tarifs spéciaux. |
Prise en charge des réseaux virtuels et prise en charge des liaisons privées | Oui. |
Identité managée | Oui, par le biais de Microsoft Entra ID |
Expérience d’interface utilisateur | Portail Azure pour la gestion des comptes et des ressources, Azure AI Studio pour l’exploration et l’ajustement des modèles |
Disponibilité régionale du modèle | Disponibilité du modèle |
Filtrage du contenu | Les invites et les complétions sont évaluées par rapport à notre stratégie de contenu avec des systèmes automatisés. Le contenu de gravité élevée est filtré. |
Intelligence artificielle responsable
Chez Microsoft, nous avons engagé une démarche d’amélioration de l’intelligence artificielle (l’IA) basée sur des principes qui placent les utilisateurs au centre de nos préoccupations. Les modèles générateurs tels que ceux disponibles dans Azure OpenAI Service présentent des avantages potentiels significatifs, mais sans une conception minutieuse et des atténuations réfléchies, ces modèles peuvent aussi générer du contenu incorrect voire dangereux. Microsoft a fait de gros efforts pour renforcer la protection contre les abus et les préjudices non intentionnels, ce qui inclut l’intégration des principes de Microsoft pour une utilisation responsable de l’IA, l’adoption d’un code de conduite pour l’utilisation du service, la création de filtres de contenu pour aider les clients, et la fourniture d’informations et de conseils que les clients doivent prendre en compte lors de l’utilisation d’Azure OpenAI.
Comment faire pour accéder à Azure OpenAI ?
Un formulaire d’inscription à accès limité n’est pas nécessaire pour accéder à la plupart des modèles Azure OpenAI. En savoir plus sur la page d’accès limité Azure OpenAI.
Comparaison d’Azure OpenAI et OpenAI
Azure OpenAI Service offre aux clients une IA de langage avancée avec les modèles OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper, et les modèles de synthèse vocale avec la promesse de sécurité et d’entreprise d’Azure. Azure OpenAI co-développe les API avec OpenAI, garantissant la compatibilité et une transition en douceur de l’une à l’autre.
Avec Azure OpenAI, les clients bénéficient des fonctionnalités de sécurité de Microsoft Azure tout en exécutant les mêmes modèles qu’OpenAI. Azure OpenAI offre une mise en réseau privé, une disponibilité régionale et un filtrage de contenu d’IA responsable.
Concepts clés
Invites et complétions
Le point de terminaison de saisie semi-automatique est le composant principal du service API. Cette API fournit l’accès à l’interface d’entrée et de sortie de texte du modèle. Les utilisateurs doivent simplement fournir une invite d’entrée contenant la commande de texte en anglais, et le modèle génère une saisie semi-automatique.
Voici un exemple d’invite et de saisie semi-automatique simples :
Invite :
""" count to 5 in a for loop """
Saisie semi-automatique :
for i in range(1, 6): print(i)
Jetons
Jetons de texte
OpenAI Enterprise traite le texte en le décomposant en jetons. Les jetons peuvent être des mots ou simplement des blocs de caractères. Par exemple, le mot « hamburger » se divise en jetons « ham », « bur » et « ger », tandis qu’un mot court et commun comme « poire » est un seul jeton. De nombreux jetons commencent par un espace, par exemple « hello » et « bye ».
Le nombre total de jetons traités dans une requête donnée dépend de la longueur de vos paramètres d’entrée, de sortie et de requête. La quantité de jetons en cours de traitement affecte également la latence et le débit de votre réponse pour les modèles.
Jetons d’image (GPT-4 Turbo avec Vision et GPT-4o)
Le coût en jetons d’une image d’entrée dépend de deux facteurs principaux : la taille de l’image et le niveau de détail (faible ou élevé) utilisé pour chaque image. Voici une décomposition de son fonctionnement :
Détail : mode basse résolution
- Un niveau de détail faible permet à l’API de retourner des réponses plus rapides et de consommer moins de jetons d’entrée pour les cas d’usage qui ne nécessitent pas un niveau de détail élevé.
- Ces images coûtent 85 jetons chacune, quelle que soit leur taille.
- Exemple : Une image de 4096 x 8192 (faible niveau de détail) : Le coût est fixé à 85 jetons, car il s’agit d’une image peu détaillée, et la taille n’affecte pas le coût dans ce mode.
Détail : mode haute résolution
- Le niveau de détail élevé permet à l’API de voir l’image de manière plus détaillée en la rognant en carrés plus petits. Chaque carré utilise davantage de jetons pour générer du texte.
- Le coût du jeton est calculé par une série d’étapes de mise à l’échelle :
- L’image est d’abord mise à l’échelle pour s’adapter à un carré de 2048 x 2048 tout en conservant ses proportions.
- L’image est ensuite mise à l’échelle afin que le côté le plus court soit de 768 pixels de long.
- L’image est divisée en mosaïques carrées de 512 pixels, et le nombre de ces mosaïques (arrondi à l’unité supérieure pour les mosaïques partielles) détermine le coût final. Chaque mosaïque coûte 170 jetons.
- 85 jetons supplémentaires sont ajoutés au coût total.
- Exemple : une image de 2048 x 4096 (haut niveau de détail)
- Initialement redimensionnée en 1024 x 2048 pour s’adapter au carré de 2048.
- Ensuite redimensionnée en 768 x 1536.
- Nécessite six vignettes de 512 px pour couvrir l’image.
- Le coût total est de
170 × 6 + 85 = 1105
jetons.
Ressources
Azure OpenAI est une nouvelle offre de produit sur Azure. Vous pouvez commencer à utiliser Azure OpenAI comme n’importe quel autre produit Azure où vous créez une ressource, ou une instance du service, dans votre abonnement Azure. Vous pouvez en savoir plus sur la conception de gestion des ressources Azure.
Déploiements
Une fois que vous avez créé une ressource Azure OpenAI, vous devez déployer un modèle avant de commencer à effectuer des appels d’API et à générer du texte. Cette action peut être effectuée à l’aide d’API de déploiement. Ces API vous permettent de spécifier le modèle que vous souhaitez utiliser.
Demander à l’ingénierie
Les modèles GPT-3, GPT-3.5 et GPT-4 d’OpenAI sont basés sur des invites. Dans le cas d’un modèle basé sur des invites, l’utilisateur interagit avec le modèle en entrant une invite de texte, à laquelle le modèle répond par une saisie semi-automatique. Cette saisie semi-automatique est la continuation du texte d’entrée par le modèle.
Bien que ces modèles soient extrêmement puissants, leur comportement est également très sensible à l’invite. La demander à l’ingénierie est dès lors une compétence importante à développer.
La construction de l’invite peut être difficile. Dans la pratique, l’invite agit pour configurer les pondérations du modèle pour accomplir la tâche souhaitée. Il s’agit toutefois plus d’un art que d’une science, qui nécessite souvent de l’expérience et de l’intuition pour créer une invite réussie.
Modèles
Le service permet aux utilisateurs d’accéder à plusieurs modèles différents. Chaque modèle fournit une fonctionnalité et un prix différents.
Les modèles DALL-E (certains en préversion ; consultez modèles) génèrent des images à partir d’invites de texte que l’utilisateur fournit.
Les modèles Whisper peuvent être utilisés pour transcrire et traduire la reconnaissance vocale.
Les modèles de synthèse vocale, actuellement en préversion, peuvent être utilisés pour convertir du texte par synthèse vocale.
En savoir plus sur chaque modèle sur notre page de concept de modèles.
Étapes suivantes
Découvrez-en plus sur les modèles sous-jacents d’Azure OpenAI.