Référence de l'API REST d’Azure OpenAI Service
Cet article fournit des détails sur les points de terminaison API REST d’inférence pour Azure OpenAI.
Spécifications de l’API
La gestion et l’interaction avec les modèles et ressources Azure OpenAI sont réparties sur trois surfaces d’API principales :
- Plan de contrôle
- Plan de données – création
- Plan de données – inférence
Chaque surface/spécification de l’API encapsule un ensemble différent de fonctionnalités Azure OpenAI. Chaque API possède son propre ensemble unique de versions d’API en préversion et stables/en disponibilité générale (GA). Actuellement, les préversions ont tendance à suivre une cadence mensuelle.
API | Version de la dernière préversion | Dernière version en disponibilité générale | Spécifications | Description |
---|---|---|---|---|
Plan de contrôle | 2024-04-01-preview |
2023-05-01 |
Fichiers de spécifications | Azure OpenAI partage un plan de contrôle commun avec tous les autres Azure AI Services. L’API de plan de contrôle est utilisée pour des éléments tels que la création de ressources Azure OpenAI, modèles de déploiement et d’autres tâches de gestion des ressources de niveau supérieur. Le plan de contrôle régit également ce qui est possible avec les fonctionnalités telles qu’Azure Resource Manager, Bicep, Terraform et Azure CLI. |
Plan de données – création | 2024-07-01-preview |
2024-06-01 |
Fichiers de spécifications | L’API de création de plan de données contrôle le réglage, le chargement de fichiers, les travaux d’ingestion, le traitement et certaines requêtes au niveau du modèle |
Plan de données – inférence | 2024-07-01-preview |
2024-06-01 |
Fichiers de spécifications | L’API d’inférence de plan de données fournit les fonctionnalités/points de terminaison d’inférence pour les fonctionnalités telles que les achèvements, les achèvements de conversation, les incorporations, la voix ou le chuchotement sur vos données, Dall-e, assistants, etc. |
Authentification
Azure OpenAI offre deux méthodes d’authentification. Vous pouvez utiliser des clés API ou Microsoft Entra ID.
Authentification par clé API : pour ce type d’authentification, toutes les requêtes d’API doivent inclure la clé API dans l’en-tête HTTP
api-key
. Le Démarrage rapide fournit des conseils sur la façon d’effectuer des appels avec ce type d’authentification.Authentification Microsoft Entra ID : Vous pouvez authentifier un appel d’API à l’aide d’un jeton Microsoft Entra. Les jetons d’authentification sont incluses dans une requête sous la forme de l’en-tête
Authorization
. Le jeton fourni doit être précédé deBearer
. Par exemple :Bearer YOUR_AUTH_TOKEN
. Vous pouvez lire notre guide pratique sur Authentification avec Microsoft Entra ID.
Gestion des versions d’API
Les API de service sont versionnées à l’aide du paramètre de requête api-version
. Toutes les versions suivent la structure de date AAAA-MM-JJ. Par exemple :
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-06-01
Inférence de plan de données
Le reste de l’article couvre la dernière version en disponibilité générale de la spécification d’inférence de plan de données Azure OpenAI, 2024-06-01
.
Si vous recherchez de la documentation sur la dernière version de l’API en préversion, reportez-vous à la dernière API d’inférence de plan de données en préversion
Saisies semi-automatiques
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01
Crée un achèvement pour le prompt fourni, les paramètres et le modèle choisi.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
id-de-déploiement | path | Oui | string | ID de déploiement du modèle qui a été déployé. |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
prompt | chaîne ou tableau | Le ou les prompts pour lesquels il faut générer des achèvements, encodés comme une chaîne ou un tableau de chaînes. Notez que <|endoftext|> est le séparateur de documents que le modèle voit lors de la formation. Par conséquent, si un prompt n’est pas spécifié, le modèle est généré comme s’il s’agissait du début d’un nouveau document. La taille maximale autorisée de la liste de chaînes est de 2048. |
Non | |
max_tokens | entier | Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle. La plupart des modèles ont une longueur de contexte de 2 048 jetons (à l’exception des modèles les plus récents, qui prennent en charge 4 096 jetons). Le minimum est de 0. | Non | 16 |
température | nombre | Quelle température d’échantillonnage utiliser. Les valeurs plus élevées signifient que le modèle prendra plus de risques. Essayez 0,9 pour des applications plus créatives, et 0 (échantillon maximum d’arguments) pour les applications ayant une réponse bien définie. Nous vous recommandons généralement de modifier this ou top_p, mais pas les deux. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
Non | 1 |
logit_bias | object | La valeur par défaut est Null. Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet json qui mappe les jetons (spécifiés par leur ID de jeton dans le générateur de jetons GPT) avec une valeur de biais associée de -100 à 100. Vous pouvez utiliser cet outil de générateur de jetons (qui fonctionne pour GPT-2 et GPT-3) afin de convertir du texte en ID de jeton. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. Par exemple, vous pouvez passer {"50256":-100} pour empêcher la génération du jeton <|endoftext|>. | Non | |
utilisateur | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à surveiller et à détecter des abus | Non | |
n | entier | Nombre d’achèvements à générer pour chaque invite. Minimum de 1 et maximum de 128 autorisés. Remarque : comme ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop. |
Non | 1 |
flux | booléen | Indique s’il faut renvoyer la progression partielle. S’ils sont définies, les jetons sont envoyés en tant qu’événements envoyés par le serveur uniquement au fur et à mesure qu’ils deviennent disponibles, avec le flux arrêté par un message de données [DONE]. | Non | False |
logprobs | entier | Incluez les probabilités de journal sur les jetons les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est égal à 5, l’API retourne une liste des 5 jetons les plus probables. L’API retourne toujours le logprob du jeton échantillonné. Il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse. Minimum de 0 et maximum de 5 autorisés. |
Non | Aucune |
suffix | string | Suffixe qui vient après l’achèvement d’un texte inséré. | Non | |
echo | booléen | Renvoyer l’invite en plus de l’achèvement | Non | False |
stop | chaîne ou tableau | Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt. | Non | |
completion_config | string | Non | ||
presence_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. | Non | 0 |
frequency_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. | Non | 0 |
best_of | entier | Génère des achèvements best_of côté serveur et retourne le « meilleur » d’entre eux (défini comme celui avec la probabilité logarithmique la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu. Lorsqu’il est utilisé avec n, best_of contrôle le nombre d’achèvements candidats et n spécifie le nombre de retours : best_of doit être supérieur à n. Remarque : comme ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop. La valeur maximale est de 128. |
Non |
Réponses
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Oui | ||
object | string | Oui | ||
created | entier | Oui | ||
modèle | string | Oui | ||
prompt_filter_results | promptFilterResults | Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. | Non | |
options | tableau | Oui | ||
utilisation | object | Non |
Propriétés pour l’utilisation
completion_tokens
Nom | Type | Description | Default |
---|---|---|---|
completion_tokens | nombre | ||
prompt_tokens | nombre | ||
total_tokens | nombre |
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | object |
Code d’état : par défaut
Description : Service non disponible
Content-Type | Type | Description |
---|---|---|
application/json | errorResponse |
Exemples
Exemple
Crée un achèvement pour le prompt fourni, les paramètres et le modèle choisi.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Réponses : Code d’état : 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Incorporations
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01
Obtenez une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par des modèles et des algorithmes Machine Learning.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
id-de-déploiement | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
input | chaîne ou tableau | Texte d’entrée pour lequel on veut obtenir des incorporations, encodé comme une chaîne. Pour obtenir des incorporations pour plusieurs entrées dans une requête unique, passez un tableau de chaînes. Chaque tableau ne doit pas dépasser une longueur de 2 048 entrées. Sauf si vous incorporez du code, nous vous suggérons de remplacer les nouvelles lignes (\n) dans votre entrée par un espace unique, car nous avons observé des résultats inférieurs lorsque les nouvelles lignes sont présentes. |
Oui | |
utilisateur | string | Un identificateur unique représentant votre utilisateur final, qui peut vous aider à surveiller et à détecter des abus. | Non | |
input_type | string | type d’entrée de la recherche d’incorporation à utiliser | Non | |
encoding_format | string | Format dans lequel retourner les incorporations. La valeur peut être float ou base64 . La valeur par défaut est float . |
Non | |
dimensions | entier | Nombre de dimensions que les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs. |
Non |
Réponses
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
object | string | Oui | ||
modèle | string | Oui | ||
données | tableau | Oui | ||
utilisation | object | Oui |
Propriétés pour l’utilisation
prompt_tokens
Nom | Type | Description | Default |
---|---|---|---|
prompt_tokens | entier |
total_tokens
Nom | Type | Description | Default |
---|---|---|---|
total_tokens | entier |
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | object |
Exemples
Exemple
Retourne les incorporations pour une invite donnée.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01
{
"input": [
"this is a test"
]
}
Réponses : Code d’état : 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Complétions de conversation
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
Crée un achèvement pour le message de conversation
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
id-de-déploiement | path | Oui | string | ID de déploiement du modèle qui a été déployé. |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
Non | 1 |
flux | booléen | Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE] . |
Non | False |
stop | chaîne ou tableau | Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. | Non | |
max_tokens | entier | Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4 096 : jetons d’invite). | Non | 4096 |
presence_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. | Non | 0 |
frequency_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. | Non | 0 |
logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. | Non | |
utilisateur | string | Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus. | Non | |
Cloud vers appareil | tableau | Liste des messages comprenant la conversation jusqu’ici. Exemple de code Python. | Non | |
data_sources | tableau | Les entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent. Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI. |
Non | |
n | entier | Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. | Non | 1 |
seed | entier | S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat. Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. |
Non | 0 |
logprobs | booléen | Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le content de message . Cette option n’est actuellement pas disponible sur le modèle gpt-4-vision-preview . |
Non | False |
top_logprobs | entier | Entier compris entre 0 et 5 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. logprobs devez être défini sur true si ce paramètre est utilisé. |
Non | |
response_format | object | Objet spécifiant le format que le modèle doit générer. Utilisé pour activer le mode JSON. | Non | |
tools | tableau | Liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option afin de fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. | Non | |
tool_choice | chatCompletionToolChoiceOption | Contrôle la fonction (le cas échéant) appelée par le modèle. none signifie que le modèle n’appelle pas de fonction et génère un message à la place. auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction. La spécification d’une fonction particulière via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cette fonction. |
Non | |
functions | tableau | Déconseillé en faveur de tools . Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. |
Non | |
function_call | chaîne ou objet | Déconseillé en faveur de tool_choice . Contrôle la façon dont le modèle répond aux appels de fonction. « none » signifie que le modèle n’appelle pas de fonction et répond à l’utilisateur final. « auto » signifie que le modèle peut choisir entre un utilisateur final ou appeler une fonction. La spécification d’une fonction particulière via {"name":\ "my_function"} force le modèle à appeler cette fonction. « none » est la valeur par défaut lorsqu’aucune fonction n’est présente. « auto » est la valeur par défaut si des fonctions sont présentes. |
Non |
Propriétés de response_format
Type
Nom | Type | Description | Default |
---|---|---|---|
type | chatCompletionResponseFormat | Le paramètre de json_object active le mode JSON. Cela garantit que le message généré par le modèle est un JSON valide. |
texte |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | createChatCompletionResponse |
Code d’état : par défaut
Description : Service non disponible
Content-Type | Type | Description |
---|---|---|
application/json | errorResponse |
Exemples
Exemple
Crée un achèvement pour le prompt fourni, les paramètres et le modèle choisi.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "system",
"content": "you're a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemple
Crée un achèvement basé sur les données Recherche Azure et l’identité managée affectée par le système.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemple
Crée un achèvement basé sur les données vectorielles Recherche Azure, le message précédent de l’Assistant et l’identité managée affectée par l’utilisateur(-trice).
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "you're an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemple
Crée un achèvement pour l’index Azure Cosmos DB fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcriptions
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01
Transcrit l’audio dans la langue d’entrée.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
id-de-déploiement | path | Oui | string | ID de déploiement du modèle chuchoteur. |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type : multipart/form-data
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
file | string | L’objet de fichier audio à transcrire. | Oui | |
prompt | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. | Non | |
response_format | audioResponseFormat | Définit le format de la sortie. | Non | |
température | nombre | Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | Non | 0 |
langage | string | La langue de l’audio d’entrée. Donner la langue d’entrée au format ISO-639-1 améliore la précision et la latence. | Non |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | audioResponse ou audioVerboseResponse | |
text/plain | string | Texte transcrit au format de sortie (lorsque response_format était text, vtt ou srt). |
Exemples
Exemple
Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01
Réponses : Code d’état : 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemple
Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code d’état : 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traductions
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01
Transcrit et traduit l’audio d’entrée en texte anglais.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
id-de-déploiement | path | Oui | string | ID de déploiement du modèle chuchoteur qui a été déployé. |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type : multipart/form-data
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
file | string | Le fichier audio à traduire. | Oui | |
prompt | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Le prompt doit être en anglais. | Non | |
response_format | audioResponseFormat | Définit le format de la sortie. | Non | |
température | nombre | Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | Non | 0 |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | audioResponse ou audioVerboseResponse | |
text/plain | string | Texte transcrit au format de sortie (lorsque response_format était text, vtt ou srt). |
Exemples
Exemple
Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code d’état : 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemple
Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code d’état : 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Génération d’images
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01
Génère un lot d’images à partir d’une légende de texte sur un modèle de déploiement DALLE donné
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
id-de-déploiement | path | Oui | string | ID de déploiement du modèle dall-e qui a été déployé. |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 4 000 caractères. | Oui | |
n | entier | Nombre d’images à générer. | Non | 1 |
size | imageSize | Taille des images générées. | Non | 1024 x 1024 |
response_format | imagesResponseFormat | Format dans lequel les images générées sont retournées. | Non | url |
utilisateur | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. | Non | |
des données | imageQuality | La qualité de l’image qui sera générée. | Non | standard |
style | imageStyle | Le style des images générées. | Non | vivid |
Réponses
Code d’état : 200
Description : Ok
Content-Type | Type | Description |
---|---|---|
application/json | generateImagesResponse |
Code d’état : par défaut
Description : Désolé, une erreur s’est produite.
Content-Type | Type | Description |
---|---|---|
application/json | dalleErrorResponse |
Exemples
Exemple
Crée des images en fonction d’un prompt donné.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Réponses : Code d’état : 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Composants
errorResponse
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
error | error | Non |
errorBase
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
code | string | Non | ||
message | string | Non |
Error
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
param | string | Non | ||
type | string | Non | ||
inner_error | innerError | Erreur interne avec des détails supplémentaires. | Non |
innerError
Erreur interne avec des détails supplémentaires.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
code | innerErrorCode | Codes d’erreur pour l’objet d’erreur interne. | Non | |
content_filter_results | contentFilterPromptResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. | Non |
innerErrorCode
Codes d’erreur pour l’objet d’erreur interne.
Description : codes d’erreur pour l’objet d’erreur interne.
Type : string
Par défaut :
Nom de l’énumération : InnerErrorCode
Valeurs d’énumération :
Valeur | Description |
---|---|
ResponsibleAIPolicyViolation | Le prompt a enfreint une ou plusieurs règles de filtrage de contenu. |
dalleErrorResponse
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
error | dalleError | Non |
dalleError
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
param | string | Non | ||
type | string | Non | ||
inner_error | dalleInnerError | Erreur interne avec des détails supplémentaires. | Non |
dalleInnerError
Erreur interne avec des détails supplémentaires.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
code | innerErrorCode | Codes d’erreur pour l’objet d’erreur interne. | Non | |
content_filter_results | dalleFilterResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. | Non | |
revised_prompt | string | Le prompt utilisé pour générer l’image, s’il y a eu une révision de l’invite. | Non |
contentFilterResultBase
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
filtered | booléen | Oui |
contentFilterSeverityResult
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
filtered | booléen | Oui | ||
gravité | string | Non |
contentFilterDetectedResult
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
filtered | booléen | Oui | ||
détecté | booléen | Non |
contentFilterDetectedWithCitationResult
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
citation | object | Non |
Propriétés de la citation
URL
Nom | Type | Description | Default |
---|---|---|---|
URL | string |
Licence
Nom | Type | Description | Default |
---|---|---|---|
licence | string |
contentFilterResultsBase
Informations sur les résultats du filtrage de contenu.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
sexuel | contentFilterSeverityResult | Non | ||
violence | contentFilterSeverityResult | Non | ||
haine | contentFilterSeverityResult | Non | ||
self_harm | contentFilterSeverityResult | Non | ||
profanité | contentFilterDetectedResult | Non | ||
error | errorBase | Non |
contentFilterPromptResults
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
sexuel | contentFilterSeverityResult | Non | ||
violence | contentFilterSeverityResult | Non | ||
haine | contentFilterSeverityResult | Non | ||
self_harm | contentFilterSeverityResult | Non | ||
profanité | contentFilterDetectedResult | Non | ||
error | errorBase | Non | ||
jailbreak | contentFilterDetectedResult | Non |
contentFilterChoiceResults
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le texte et la profanité tiers, s’il a été détecté et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
sexuel | contentFilterSeverityResult | Non | ||
violence | contentFilterSeverityResult | Non | ||
haine | contentFilterSeverityResult | Non | ||
self_harm | contentFilterSeverityResult | Non | ||
profanité | contentFilterDetectedResult | Non | ||
error | errorBase | Non | ||
protected_material_text | contentFilterDetectedResult | Non | ||
protected_material_code | contentFilterDetectedWithCitationResult | Non |
promptFilterResult
Résultats du filtrage de contenu pour un seul prompt dans la requête.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
prompt_index | entier | Non | ||
content_filter_results | contentFilterPromptResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. | Non |
promptFilterResults
Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents.
dalleContentFilterResults
Informations sur les résultats du filtrage de contenu.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
sexuel | contentFilterSeverityResult | Non | ||
violence | contentFilterSeverityResult | Non | ||
haine | contentFilterSeverityResult | Non | ||
self_harm | contentFilterSeverityResult | Non |
dalleFilterResults
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
sexuel | contentFilterSeverityResult | Non | ||
violence | contentFilterSeverityResult | Non | ||
haine | contentFilterSeverityResult | Non | ||
self_harm | contentFilterSeverityResult | Non | ||
profanité | contentFilterDetectedResult | Non | ||
jailbreak | contentFilterDetectedResult | Non |
chatCompletionsRequestCommon
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
Non | 1 |
flux | booléen | Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE] . |
Non | False |
stop | chaîne ou tableau | Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. | Non | |
max_tokens | entier | Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4 096 : jetons d’invite). | Non | 4096 |
presence_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. | Non | 0 |
frequency_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. | Non | 0 |
logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. | Non | |
utilisateur | string | Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus. | Non |
createChatCompletionRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
Non | 1 |
flux | booléen | Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE] . |
Non | False |
stop | chaîne ou tableau | Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. | Non | |
max_tokens | entier | Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4 096 : jetons d’invite). | Non | 4096 |
presence_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. | Non | 0 |
frequency_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. | Non | 0 |
logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. | Non | |
utilisateur | string | Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus. | Non | |
Cloud vers appareil | tableau | Liste des messages comprenant la conversation jusqu’ici. Exemple de code Python. | Non | |
data_sources | tableau | Les entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent. Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI. |
Non | |
n | entier | Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. | Non | 1 |
seed | entier | S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat. Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. |
Non | 0 |
logprobs | booléen | Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le content de message . Cette option n’est actuellement pas disponible sur le modèle gpt-4-vision-preview . |
Non | False |
top_logprobs | entier | Entier compris entre 0 et 5 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. logprobs devez être défini sur true si ce paramètre est utilisé. |
Non | |
response_format | object | Objet spécifiant le format que le modèle doit générer. Utilisé pour activer le mode JSON. | Non | |
tools | tableau | Liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option afin de fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. | Non | |
tool_choice | chatCompletionToolChoiceOption | Contrôle la fonction (le cas échéant) appelée par le modèle. none signifie que le modèle n’appelle pas de fonction et génère un message à la place. auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction. La spécification d’une fonction particulière via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cette fonction. |
Non | |
functions | tableau | Déconseillé en faveur de tools . Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. |
Non | |
function_call | chaîne ou objet | Déconseillé en faveur de tool_choice . Contrôle la façon dont le modèle répond aux appels de fonction. « none » signifie que le modèle n’appelle pas de fonction et répond à l’utilisateur final. « auto » signifie que le modèle peut choisir entre un utilisateur final ou appeler une fonction. La spécification d’une fonction particulière via {"name":\ "my_function"} force le modèle à appeler cette fonction. « none » est la valeur par défaut lorsqu’aucune fonction n’est présente. « auto » est la valeur par défaut si des fonctions sont présentes. |
Non |
Propriétés de response_format
Type
Nom | Type | Description | Default |
---|---|---|---|
type | chatCompletionResponseFormat | Le paramètre de json_object active le mode JSON. Cela garantit que le message généré par le modèle est un JSON valide. |
texte |
chatCompletionResponseFormat
Le paramètre de json_object
active le mode JSON. Cela garantit que le message généré par le modèle est un JSON valide.
Description : Définir sur json_object
pour activer le mode JSON. Cela garantit que le message généré par le modèle est un JSON valide.
Type : string
Valeur par défaut : texte
Nom de l’énumération : ChatCompletionResponseFormat
Valeurs d’énumération :
Valeur | Description |
---|---|
texte | Le format de réponse est une chaîne de texte brut. |
json_object | Le format de réponse est un objet JSON. |
chatCompletionFunction
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
name | chaîne | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | Oui | |
description | string | La description du rôle de la fonction. | Non | |
parameters | chatCompletionFunctionParameters | Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez les Informations de référence sur le schéma JSON pour obtenir de la documentation sur le format. | Non |
chatCompletionFunctionParameters
Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez les Informations de référence sur le schéma JSON pour obtenir de la documentation sur le format.
chatCompletionRequestMessage
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Le rôle de l’auteur(-trice) des messages. | Oui |
chatCompletionRequestMessageRole
Le rôle de l’auteur(-trice) des messages.
Description : le rôle de l’auteur(-trice) des messages.
Type : string
Par défaut :
Nom de l’énumération : ChatCompletionRequestMessageRole
Valeurs d’énumération :
Valeur | Description |
---|---|
système | Le rôle de l’auteur(-trice) du message est système. |
utilisateur | Le rôle de l’auteur(-trice) du message est utilisateur(-trice). |
assistant | Le rôle de l’auteur(-trice) du message est assistant(e). |
outil | Le rôle de l’auteur(-trice) du message est outil. |
function | Déconseillé. Le rôle de l’auteur(-trice) du message est fonction. |
chatCompletionRequestMessageSystem
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Le rôle de l’auteur(-trice) des messages. | Oui | |
content | string | Contenu du message. | Non |
chatCompletionRequestMessageUser
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Le rôle de l’auteur(-trice) des messages. | Oui | |
content | chaîne ou tableau | Non |
chatCompletionRequestMessageContentPart
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | chatCompletionRequestMessageContentPartType | Le type de la partie contenu. | Oui |
chatCompletionRequestMessageContentPartType
Le type de la partie contenu.
Description : le type de la partie contenu.
Type : string
Par défaut :
Nom de l’énumération : ChatCompletionRequestMessageContentPartType
Valeurs d’énumération :
Valeur | Description |
---|---|
texte | Le type de la partie contenu est texte. |
image_url | Le type de la partie contenu est image_url. |
chatCompletionRequestMessageContentPartText
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | chatCompletionRequestMessageContentPartType | Le type de la partie contenu. | Oui | |
texte | string | Texte. | Non |
chatCompletionRequestMessageContentPartImage
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | chatCompletionRequestMessageContentPartType | Le type de la partie contenu. | Oui | |
url | string | URL de l’image ou des données d’image encodées en base64. | Non | |
detail | imageDetailLevel | Spécifie le niveau de détail de l’image. | Non | auto |
imageDetailLevel
Spécifie le niveau de détail de l’image.
Description : spécifie le niveau de détail de l’image.
Type : string
Valeur par défaut : auto
Nom de l’énumération : ImageDetailLevel
Valeurs d’énumération :
Valeur | Description |
---|---|
auto | Le niveau de détail de l’image est automatique. |
Faible | Le niveau de détail de l’image est faible. |
high | Le niveau de détail de l’image est élevé. |
chatCompletionRequestMessageAssistant
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Le rôle de l’auteur(-trice) des messages. | Oui | |
content | string | Contenu du message. | Non | |
tool_calls | tableau | Appels d’outils générés par le modèle, par exemple les appels de fonction. | Non | |
contexte | azureChatExtensionsMessageContext | Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvement de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante. |
Non |
azureChatExtensionConfiguration
Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Oui |
azureChatExtensionType
Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Description : une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation
Des requêtes d’achèvements doivent utiliser des extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Type : string
Par défaut :
Nom de l’énumération : AzureChatExtensionType
Valeurs d’énumération :
Valeur | Description |
---|---|
azure_search | Représente l’utilisation de Recherche Azure en tant qu’extension de conversation Azure OpenAI. |
azure_cosmos_db | Représente l’utilisation d’Azure Cosmos DB comme extension de conversation Azure OpenAI. |
azureSearchChatExtensionConfiguration
Une représentation spécifique des options configurables pour Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Oui | |
parameters | azureSearchChatExtensionParameters | Paramètres de Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI. | Non |
azureSearchChatExtensionParameters
Paramètres de Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
authentication | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions | Oui | ||
top_n_documents | entier | Le nombre maximal de documents à proposer pour la requête configurée. | Non | |
in_scope | booléen | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | Non | |
sévérité | entier | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée, mais plus faible sera le rappel de la réponse. | Non | |
role_information | string | Fournissez au modèle des instructions sur son comportement et sur tout contexte qu’il doit référencer en générant une réponse. Vous pouvez décrire la personnalité de l’assistant, lui dire ce qu’il doit et ne doit pas répondre, et lui indiquer comment formater les réponses. Il existe une limite de 100 jetons pour celle-ci, et elle compte pour la limite globale des jetons. | Non | |
endpoint | string | Chemin d’accès du point de terminaison absolu de la ressource Recherche cognitive Azure à utiliser. | Oui | |
index_name | string | Le nom de l’index à utiliser comme disponible dans la ressource Recherche Azure référencée. | Oui | |
fields_mapping | azureSearchIndexFieldMappingOptions | Paramètres facultatifs permettant de contrôler le traitement des champs lors de l'utilisation d'une ressource Azure Search configurée. | Non | |
query_type | azureSearchQueryType | Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI. | Non | |
semantic_configuration | string | La configuration sémantique supplémentaire pour la requête. | Non | |
filter | string | Filtre de recherche. | Non | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Non |
azureSearchIndexFieldMappingOptions
Paramètres facultatifs permettant de contrôler le traitement des champs lors de l'utilisation d'une ressource Azure Search configurée.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
title_field | string | Nom du champ d’index à utiliser comme titre. | Non | |
url_field | string | Nom du champ d’index à utiliser comme URL. | Non | |
filepath_field | string | Le nom du champ d’index à utiliser comme chemin d’accès au fichier. | Non | |
content_fields | tableau | Les noms des champs d’index qui doivent être traités comme du contenu. | Non | |
content_fields_separator | string | Le modèle de séparation que les champs de contenu doivent utiliser. | Non | |
vector_fields | tableau | Noms de champs qui représentent des données vectorielles. | Non |
azureSearchQueryType
Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Description : le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Type : string
Par défaut :
Nom de l’énumération : azureSearchQueryType
Valeurs d’énumération :
Valeur | Description |
---|---|
simple | Représente l'analyseur de requêtes simple par défaut. |
sémantique | Représente l'analyseur de requêtes sémantiques pour la modélisation sémantique avancée. |
vector | Représente la recherche vectorielle sur des données calculées. |
vector_simple_hybrid | Représente une combinaison de la stratégie d'interrogation simple avec des données vectorielles. |
vector_semantic_hybrid | Représente une combinaison de recherche sémantique et d'interrogation de données vectorielles. |
azureCosmosDBChatExtensionConfiguration
Une représentation spécifique des options configurables pour Azure Cosmos DB lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Oui | |
parameters | azureCosmosDBChatExtensionParameters | Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation d’Azure Cosmos DB for MongoDB vCore. |
Non |
azureCosmosDBChatExtensionParameters
Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation d’Azure Cosmos DB for MongoDB vCore.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
authentication | onYourDataConnectionStringAuthenticationOptions | Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion. | Oui | |
top_n_documents | entier | Le nombre maximal de documents à proposer pour la requête configurée. | Non | |
in_scope | booléen | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | Non | |
sévérité | entier | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée, mais plus faible sera le rappel de la réponse. | Non | |
role_information | string | Fournissez au modèle des instructions sur son comportement et sur tout contexte qu’il doit référencer en générant une réponse. Vous pouvez décrire la personnalité de l’assistant, lui dire ce qu’il doit et ne doit pas répondre, et lui indiquer comment formater les réponses. Il existe une limite de 100 jetons pour celle-ci, et elle compte pour la limite globale des jetons. | Non | |
database_name | string | Le nom de la base de données du cœur virtuel MongoDB à utiliser avec Azure Cosmos DB. | Oui | |
container_name | string | Le nom du conteneur de ressource SQL Azure Cosmos DB. | Oui | |
index_name | string | Le nom de l’index du cœur virtuel MongoDB à utiliser avec Azure Cosmos DB. | Oui | |
fields_mapping | azureCosmosDBFieldMappingOptions | Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée. | Oui | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Oui |
azureCosmosDBFieldMappingOptions
Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
title_field | string | Nom du champ d’index à utiliser comme titre. | Non | |
url_field | string | Nom du champ d’index à utiliser comme URL. | Non | |
filepath_field | string | Le nom du champ d’index à utiliser comme chemin d’accès au fichier. | Non | |
content_fields | tableau | Les noms des champs d’index qui doivent être traités comme du contenu. | Oui | |
content_fields_separator | string | Le modèle de séparation que les champs de contenu doivent utiliser. | Non | |
vector_fields | tableau | Noms de champs qui représentent des données vectorielles. | Oui |
onYourDataAuthenticationOptions
Les options d’authentification pour Azure OpenAI sur vos données.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Oui |
onYourDataAuthenticationType
Les types d’authentification pris en charge avec Azure OpenAI sur vos données.
Description : les types d’authentification pris en charge avec Azure OpenAI sur vos données.
Type : string
Par défaut :
Nom de l’énumération : OnYourDataAuthenticationType
Valeurs d’énumération :
Valeur | Description |
---|---|
api_key | Authentification avec clé API. |
connection_string | Authentification avec chaîne de connexion. |
system_assigned_managed_identity | Authentification avec identité managée affectée par le système. |
user_assigned_managed_identity | Authentification avec identité managée affectée par l’utilisateur(-trice). |
onYourDataApiKeyAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Oui | |
key | string | Clé API à utiliser pour l’authentification. | Non |
onYourDataConnectionStringAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Oui | |
connection_string | string | La chaîne de connexion à utiliser pour l’authentification. | Non |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Les options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par le système.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Oui |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Les options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par l’utilisateur.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Oui | |
managed_identity_resource_id | string | ID de ressource de l’identité managée affectée par l’utilisateur à utiliser pour l’authentification. | Non |
onYourDataVectorizationSource
Une représentation abstraite d’une source de vectorisation pour Azure OpenAI sur vos données avec la recherche vectorielle.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. |
Oui |
onYourDataVectorizationSourceType
Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle.
Description : représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec
La recherche vectorielle.
Type : string
Par défaut :
Nom de l’énumération : OnYourDataVectorizationSourceType
Valeurs d’énumération :
Valeur | Description |
---|---|
endpoint | Représente la vectorisation effectuée par les appels de service public à un modèle d’incorporation Azure OpenAI. |
deployment_name | Représente un nom de modèle de déploiement Ada à utiliser. Ce modèle de déploiement doit se trouver dans la même ressource Azure OpenAI, mais La fonction sur votre fonctionnalité de données utilisera ce modèle de déploiement via un appel interne plutôt que public, ce qui permet au vecteur sur vos données d’être plus efficace recherche vectorielle même dans des réseaux privés. |
onYourDataDeploymentNameVectorizationSource
Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un nom de modèle de déploiement d’incorporation interne dans la même ressource Azure OpenAI.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. |
Oui | |
deployment_name | string | Spécifie le nom du modèle de déploiement à utiliser pour la vectorisation. Ce déploiement de modèle doit se trouver dans la même ressource Azure OpenAI, mais sur vos données utilise ce modèle de déploiement via un appel interne plutôt qu’un appel public, ce qui permet la recherche vectorielle même dans des réseaux privés. | Non |
onYourDataEndpointVectorizationSource
Les détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, qui est basée sur le point d’arrivée des embeddings publics pour Azure OpenAI.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. |
Oui | |
authentication | onYourDataApiKeyAuthenticationOptions | Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API. | Non | |
endpoint | string | Spécifie le point de terminaison à utiliser pour la vectorisation. Ce point de terminaison doit se trouver dans la même ressource Azure OpenAI, mais sur vos données utilise ce point de terminaison via un appel interne plutôt qu’un appel public, ce qui permet la recherche vectorielle même dans des réseaux privés. | Non |
azureChatExtensionsMessageContext
Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvements de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
citations | tableau | Résultat de récupération de la source de données, utilisé pour générer le message assistant dans la réponse. | Non | |
intention | string | Intention détectée à partir de l’historique de conversation, utilisée pour passer au prochain tour afin de reporter le contexte. | Non |
Citation
Informations de citation pour un message de réponse d’achèvements de conversation.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
content | string | Contenu de la citation. | Oui | |
title | string | Titre de la citation. | Non | |
url | string | URL de la citation. | Non | |
filepath | string | Chemin d’accès au fichier de la citation. | Non | |
chunk_id | string | ID de bloc de la citation. | Non |
chatCompletionMessageToolCall
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | ID de l’appel de l’outil. | Oui | |
type | toolCallType | Le type de l’appel d’outil, dans ce cas function . |
Oui | |
function | object | Fonction appelée par le modèle. | Oui |
Propriétés de la fonction
Nom
Nom | Type | Description | Default |
---|---|---|---|
name | chaîne | Nom de la fonction à appeler. |
Arguments
Nom | Type | Description | Default |
---|---|---|---|
arguments | string | Arguments à utiliser pour appeler la fonction, tels qu’ils sont générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut fabriquer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. |
toolCallType
Le type de l’appel d’outil, dans ce cas function
.
Description : le type de l’appel d’outil, dans ce cas function
.
Type : string
Par défaut :
Nom de l’énumération : ToolCallType
Valeurs d’énumération :
Valeur | Description |
---|---|
function | Le type de l’appel d’outil est fonction. |
chatCompletionRequestMessageTool
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
role | chatCompletionRequestMessageRole | Le rôle de l’auteur(-trice) des messages. | Oui | |
tool_call_id | string | Appel d’outil auquel ce message répond. | Non | |
content | string | Contenu du message. | Non |
chatCompletionRequestMessageFunction
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas function .Valeurs possibles : fonction |
Oui | |
name | chaîne | Contenu du message. | Non | |
content | string | Contenu du message. | Non |
createChatCompletionResponse
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur unique de la complétion de conversation. | Oui | |
object | chatCompletionResponseObject | Type d'objet. | Oui | |
created | entier | Horodatage Unix (en secondes) de la création de la complétion de conversation. | Oui | |
modèle | string | Modèle utilisé pour la complétion de conversation. | Oui | |
utilisation | completionUsage | Statistiques d’utilisation pour la demande d’achèvement. | Non | |
system_fingerprint | string | Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end. |
Non | |
prompt_filter_results | promptFilterResults | Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. | Non | |
options | tableau | Non |
chatCompletionChoiceLogProbs
Informations de probabilité logarithmique pour le choix.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
content | tableau | Une liste des jetons de contenu de message avec des informations de probabilité logarithmique. | Oui |
chatCompletionTokenLogprob
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
token | string | Jeton. | Oui | |
logprob | nombre | La probabilité logarithmique de ce jeton. | Oui | |
octets | tableau | Une liste d’entiers pour la représentation en octets UTF-8 du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations en octets doivent être combinées pour générer la représentation textuelle correcte. Peut être null s’il n’y a pas de représentation en octets pour le jeton. |
Oui | |
top_logprobs | tableau | Liste des jetons les plus probables et de leur probabilité logarithmique, à cette position de jeton. Dans de rares cas, il peut y avoir moins que le nombre de top_logprobs demandées retournées. |
Oui |
chatCompletionResponseMessage
Message de complétion de conversation généré par le modèle.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
role | chatCompletionResponseMessageRole | Le rôle de l’auteur du message de réponse. | Non | |
content | string | Contenu du message. | Non | |
tool_calls | tableau | Appels d’outils générés par le modèle, par exemple les appels de fonction. | Non | |
function_call | chatCompletionFunctionCall | Déconseillé et remplacé par tool_calls . Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. |
Non | |
contexte | azureChatExtensionsMessageContext | Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvement de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante. |
Non |
chatCompletionResponseMessageRole
Le rôle de l’auteur du message de réponse.
Description : le rôle de l’auteur(-trice) du message de réponse.
Type : string
Par défaut :
Valeurs d’énumération :
- assistant
chatCompletionToolChoiceOption
Contrôle la fonction (le cas échéant) appelée par le modèle. none
signifie que le modèle n’appelle pas de fonction et génère un message à la place. auto
signifie que le modèle peut choisir entre générer un message ou appeler une fonction. La spécification d’une fonction particulière via {"type": "function", "function": {"name": "my_function"}}
force le modèle à appeler cette fonction.
Ce composant peut être l’un des éléments suivants :
chatCompletionNamedToolChoice
Spécifie un outil que le modèle doit utiliser. Utilisez-le pour forcer le modèle à appeler une fonction spécifique.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | enum | Type de l'outil. Actuellement, seul function est pris en charge.Valeurs possibles : fonction |
Non | |
function | object | Non |
Propriétés de la fonction
Nom
Nom | Type | Description | Default |
---|---|---|---|
name | chaîne | Nom de la fonction à appeler. |
chatCompletionFunctionCall
Déconseillé et remplacé par tool_calls
. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
name | chaîne | Nom de la fonction à appeler. | Oui | |
arguments | string | Arguments à utiliser pour appeler la fonction, tels qu’ils sont générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut fabriquer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. | Oui |
chatCompletionsResponseCommon
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur unique de la complétion de conversation. | Oui | |
object | chatCompletionResponseObject | Type d'objet. | Oui | |
created | entier | Horodatage Unix (en secondes) de la création de la complétion de conversation. | Oui | |
modèle | string | Modèle utilisé pour la complétion de conversation. | Oui | |
utilisation | completionUsage | Statistiques d’utilisation pour la demande d’achèvement. | Non | |
system_fingerprint | string | Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end. |
Non |
chatCompletionResponseObject
Type d'objet.
Description : le type d’objet.
Type : string
Par défaut :
Nom de l’énumération : ChatCompletionResponseObject
Valeurs d’énumération :
Valeur | Description |
---|---|
chat.completion | Le type d’objet est achèvement de conversation. |
completionUsage
Statistiques d’utilisation pour la demande d’achèvement.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
prompt_tokens | entier | Nombre de jetons dans l’invite. | Oui | |
completion_tokens | entier | Nombre de jetons dans la complétion générée. | Oui | |
total_tokens | entier | Nombre total de jetons utilisés dans la requête (prompt + complétion). | Oui |
chatCompletionTool
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | chatCompletionToolType | Type de l'outil. Actuellement, seul function est pris en charge. |
Oui | |
function | object | Oui |
Propriétés de la fonction
Description
Nom | Type | Description | Default |
---|---|---|---|
description | string | Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. |
Nom
Nom | Type | Description | Default |
---|---|---|---|
name | chaîne | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. |
Paramètres
Nom | Type | Description | Default |
---|---|---|---|
parameters | chatCompletionFunctionParameters | Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez les Informations de référence sur le schéma JSON pour obtenir de la documentation sur le format. |
chatCompletionToolType
Type de l'outil. Actuellement, seul function
est pris en charge.
Description : le type de l’outil. Actuellement, seul function
est pris en charge.
Type : string
Par défaut :
Nom de l’énumération : ChatCompletionToolType
Valeurs d’énumération :
Valeur | Description |
---|---|
function | Le type d’outil est fonction. |
chatCompletionChoiceCommon
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
index | entier | Non | ||
finish_reason | string | Non |
createTranslationRequest
Requête de traduction.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
file | string | Le fichier audio à traduire. | Oui | |
prompt | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Le prompt doit être en anglais. | Non | |
response_format | audioResponseFormat | Définit le format de la sortie. | Non | |
température | nombre | Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | Non | 0 |
audioResponse
Réponse de traduction ou de transcription lorsque response_format était json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
texte | string | Texte traduit ou transcrit. | Oui |
audioVerboseResponse
Réponse de traduction ou de transcription lorsque response_format était verbose_json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
texte | string | Texte traduit ou transcrit. | Oui | |
tâche | string | Type de tâche audio. | Non | |
langage | string | Langue. | Non | |
durée | nombre | Duration. | Non | |
segments | tableau | Non |
audioResponseFormat
Définit le format de la sortie.
Description : définit le format de la sortie.
Type : string
Par défaut :
Valeurs d’énumération :
- json
- texte
- srt
- verbose_json
- vtt
createTranscriptionRequest
Requête de transcription.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
file | string | L’objet de fichier audio à transcrire. | Oui | |
prompt | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. | Non | |
response_format | audioResponseFormat | Définit le format de la sortie. | Non | |
température | nombre | Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | Non | 0 |
langage | string | La langue de l’audio d’entrée. Donner la langue d’entrée au format ISO-639-1 améliore la précision et la latence. | Non |
audioSegment
Segment de transcription ou de traduction.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | entier | Identificateur de segment. | Non | |
chercher | nombre | Décalage du segment. | Non | |
start | nombre | Le décalage de début du segment. | Non | |
end | nombre | Décalage de fin de segment. | Non | |
texte | string | Texte du segment. | Non | |
jetons | tableau | Jetons du texte. | Non | |
température | nombre | Température. | Non | |
avg_logprob | nombre | Probabilité logarithmique moyenne. | Non | |
compression_ratio | nombre | Taux de compression. | Non | |
no_speech_prob | nombre | Probabilité de « no speech ». | Non |
imageQuality
La qualité de l’image qui sera générée.
Description : la qualité de l’image qui sera générée.
Type : string
Valeur par défaut : standard
Nom de l’énumération : Quality
Valeurs d’énumération :
Valeur | Description |
---|---|
standard | La qualité standard crée des images avec une qualité standard. |
hd | La qualité HD crée des images avec des détails plus fins et une plus grande cohérence dans l’image. |
imagesResponseFormat
Format dans lequel les images générées sont retournées.
Description : le format dans lequel les images générées sont retournées.
Type : string
Valeur par défaut : url
Nom de l’énumération : ImagesResponseFormat
Valeurs d’énumération :
Valeur | Description |
---|---|
url | L’URL qui fournit un accès temporaire pour télécharger les images générées. |
b64_json | Les images générées sont retournées sous forme de chaîne encodée en base64. |
imageSize
Taille des images générées.
Description : la taille des images générées.
Type : string
Valeur par défaut : 1024x1024
Nom de l’énumération : Size
Valeurs d’énumération :
Valeur | Description |
---|---|
1792x1024 | La taille souhaitée de l’image générée est de 1792 x 1024 pixels. |
1024x1792 | La taille souhaitée de l’image générée est de 1024 x 1792 pixels. |
1024 x 1024 | La taille souhaitée de l’image générée est de 1024 x 1024 pixels. |
imageStyle
Le style des images générées.
Description : le style des images générées.
Type : string
Valeur par défaut : vivid
Nom de l’énumération : Style
Valeurs d’énumération :
Valeur | Description |
---|---|
vif | Vivid crée des images hyper réalistes et dramatiques. |
naturel | Natural crée des images qui sont plus naturelles et moins hyper réalistes. |
imageGenerationsRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 4 000 caractères. | Oui | |
n | entier | Nombre d’images à générer. | Non | 1 |
size | imageSize | Taille des images générées. | Non | 1024 x 1024 |
response_format | imagesResponseFormat | Format dans lequel les images générées sont retournées. | Non | url |
utilisateur | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. | Non | |
des données | imageQuality | La qualité de l’image qui sera générée. | Non | standard |
style | imageStyle | Le style des images générées. | Non | vif |
generateImagesResponse
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
created | entier | Le timestamp unix lors de la création de l’opération. | Oui | |
données | tableau | Les données de résultat de l’opération, en cas de réussite | Oui |
imageResult
L’URL de l’image ou l’image encodée en cas de réussite et une erreur dans le cas contraire.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
url | string | L’URL de l’image. | Non | |
b64_json | string | L’image encodée en base64 | Non | |
content_filter_results | dalleContentFilterResults | Informations sur les résultats du filtrage de contenu. | Non | |
revised_prompt | string | Le prompt utilisé pour générer l’image, s’il y a eu une révision de l’invite. | Non | |
prompt_filter_results | dalleFilterResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. | Non |
Extensions de saisie semi-automatique
Les extensions d’achèvement ne font pas partie de la dernière version en disponibilité générale de la spécification d’inférence du plan de données Azure OpenAI.
ChatMessage
L’objet Chat message ne fait pas partie de la dernière version GA de la spécification d’inférence du plan de données Azure OpenAI.
Synthèse vocale
Ne fait pas actuellement partie de la dernière version Azure OpenAI GA de la spécification d’inférence du plan de données Azure OpenAI. Reportez-vous à la dernière version préversion pour cette fonctionnalité.
Étapes suivantes
En savoir plus sur les modèles et l’optimisation avec l’API REST. Découvrez-en plus sur les modèles sous-jacents d’Azure OpenAI.