Partager via


Informations de référence sur l’API REST Azure OpenAI Service

Cet article fournit des détails sur les points de terminaison API REST d’inférence pour Azure OpenAI.

Spécifications de l’API

La gestion et l’interaction avec les modèles et ressources Azure OpenAI sont réparties sur trois surfaces d’API principales :

  • Plan de contrôle
  • Plan de données – création
  • Plan de données – inférence

Chaque surface/spécification de l’API encapsule un ensemble différent de fonctionnalités Azure OpenAI. Chaque API possède son propre ensemble unique de versions d’API en préversion et stables/en disponibilité générale (GA). Actuellement, les préversions ont tendance à suivre une cadence mensuelle.

API Version de la dernière préversion Dernière version en disponibilité générale Spécifications Description
Plan de contrôle 2024-06-01-preview 2024-10-01 Fichiers de spécifications Azure OpenAI partage un plan de contrôle commun avec tous les autres Azure AI Services. L’API de plan de contrôle est utilisée pour des éléments tels que la création de ressources Azure OpenAI,  modèles de déploiement et d’autres tâches de gestion des ressources de niveau supérieur. Le plan de contrôle régit également ce qui est possible avec les fonctionnalités telles qu’Azure Resource Manager, Bicep, Terraform et Azure CLI.
Plan de données – création 2024-10-01-preview 2024-10-21 Fichiers de spécifications L’API de création de plan de données contrôle le réglage, le chargement de fichiers, les travaux d’ingestion, le traitement et certaines requêtes au niveau du modèle
Plan de données – inférence 2024-10-01-preview 2024-10-21 Fichiers de spécifications L’API d’inférence de plan de données fournit les fonctionnalités/points de terminaison d’inférence pour les fonctionnalités telles que les achèvements, les achèvements de conversation, les incorporations, la voix ou le chuchotement sur vos données, Dall-e, assistants, etc.

Authentification

Azure OpenAI offre deux méthodes d’authentification. Vous pouvez utiliser des clés API ou Microsoft Entra ID.

  • Authentification par clé API : pour ce type d’authentification, toutes les requêtes d’API doivent inclure la clé API dans l’en-tête HTTP api-key. Le Démarrage rapide fournit des conseils sur la façon d’effectuer des appels avec ce type d’authentification.

  • Authentification Microsoft Entra ID : Vous pouvez authentifier un appel d’API à l’aide d’un jeton Microsoft Entra. Les jetons d’authentification sont incluses dans une requête sous la forme de l’en-tête Authorization. Le jeton fourni doit être précédé de Bearer. Par exemple : Bearer YOUR_AUTH_TOKEN. Vous pouvez lire notre guide pratique sur Authentification avec Microsoft Entra ID.

Gestion des versions d’API

Les API de service sont versionnées à l’aide du paramètre de requête api-version. Toutes les versions suivent la structure de date AAAA-MM-JJ. Par exemple :

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inférence de plan de données

Le reste de l’article couvre la dernière version en préversion de la spécification d’inférence de plan de données Azure OpenAI, 2024-10-01-preview. Cet article inclut la documentation relative aux dernières fonctionnalités de la préversion telles que les assistants, les threads et les magasins de vecteurs.

Si vous recherchez de la documentation sur la dernière version de l’API en disponibilité générale, reportez-vous à la dernière API d’inférence de plan de données en disponibilité générale

Achèvements – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview

Crée un achèvement pour le prompt fourni, les paramètres et le modèle choisi.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
id-de-déploiement path Oui string ID de déploiement du modèle qui a été déployé.
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
prompt chaîne ou tableau Prompt ou prompts pour lesquels il faut générer des complétions, avec encodage sous forme de chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons.

Notez que <|endoftext|> est le séparateur de documents que le modèle voit lors de la formation. Par conséquent, si un prompt n’est pas spécifié, le modèle est généré comme s’il s’agissait du début d’un nouveau document.
Oui
best_of entier Génère des complétions best_of côté serveur et retourne la « meilleure » (celle avec la probabilité logarithmique la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.

Quand il est utilisé avec n, best_of contrôle le nombre de complétions candidates, et n spécifie le nombre de retours. best_of doit être supérieur à n.

Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop.
Non 1
echo booléen Renvoyer l’invite en plus de l’achèvement
Non False
frequency_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot.
Non 0
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement.

Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le générateur de jetons GPT) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.

Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du jeton <|endoftext|>.
Non Aucune
logprobs entier Inclut les probabilités logarithmiques sur les jetons de sortie logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est égal à 5, l’API retourne une liste des 5 jetons les plus probables. L’API retournant toujours le logprob du jeton échantillonné, il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse.

La valeur maximale de logprobs est 5.
Non Aucune
max_tokens entier Nombre maximal de jetons pouvant être générés dans la complétion.

Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle.
Non 16
n entier Nombre d’achèvements à générer pour chaque invite.

Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop.
Non 1
presence_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
Non 0
seed entier S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.

Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end.
Non
stop chaîne ou tableau Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.
Non
flux booléen Indique s’il faut renvoyer la progression partielle. S’ils sont définis, les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE].
Non False
suffix string Suffixe qui vient après l’achèvement d’un texte inséré.

Ce paramètre est uniquement pris en charge pour gpt-3.5-turbo-instruct.
Non Aucune
température number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
Non 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
Non 1
utilisateur string Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus.
Non

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json createCompletionResponse Représente une réponse de complétion de l’API. Remarque : les objets de réponse diffusés en continu et non diffusés en continu partagent la même forme (contrairement au point de terminaison de conversation).

Code d’état : par défaut

Description : Service non disponible

Content-Type Type Description
application/json errorResponse

Exemples

Exemple

Crée un achèvement pour le prompt fourni, les paramètres et le modèle choisi.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Incorporations – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview

Obtenez une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par des modèles et des algorithmes Machine Learning.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
id-de-déploiement path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
input chaîne ou tableau Texte d’entrée à incorporer, encodé en tant que chaîne ou tableau de jetons. Pour incorporer plusieurs entrées dans une seule requête, transmettez un tableau de chaînes ou de tableaux de jetons. L’entrée ne doit pas dépasser le nombre maximal de jetons d’entrée pour le modèle (8 192 jetons pour text-embedding-ada-002), ne peut pas être une chaîne vide et un tableau doit avoir un nombre de dimensions inférieur ou égal à 2 048. Oui
utilisateur string Un identificateur unique représentant votre utilisateur final, qui peut vous aider à surveiller et à détecter des abus. Non
input_type string type d’entrée de la recherche d’incorporation à utiliser Non
encoding_format string Format dans lequel retourner les incorporations. La valeur peut être float ou base64. La valeur par défaut est float. Non
dimensions entier Nombre de dimensions que les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs. Non

Réponses

Nom Type Description Obligatoire Par défaut
object string Oui
modèle string Oui
données tableau Oui
utilisation object Oui

Propriétés pour l’utilisation

prompt_tokens

Nom Type Description Default
prompt_tokens entier

total_tokens

Nom Type Description Default
total_tokens entier

Code d’état : 200

Description : OK

Content-Type Type Description
application/json object

Exemples

Exemple

Retourne les incorporations pour une invite donnée.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview

{
 "input": [
  "this is a test"
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05,
          0.0032178196
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Achèvements de conversation – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

Crée un achèvement pour le message de conversation

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
id-de-déploiement path Oui string ID de déploiement du modèle qui a été déployé.
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
température number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
Non 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
Non 1
flux booléen Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE].
Non False
stop chaîne ou tableau Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons.
Non
max_tokens entier Nombre maximal de jetons pouvant être générés dans la complétion de conversation.

La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle.
Non
max_completion_tokens entier Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. Elle est uniquement prise en charge dans les modèles de série o1. Expansion de la prise en charge d’autres modèles dans une future version d’API. Non
presence_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
Non 0
frequency_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot.
Non 0
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement.

Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.
Non Aucune
utilisateur string Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus.
Non
Cloud vers appareil tableau Liste des messages comprenant la conversation jusqu’ici. Oui
data_sources tableau Les entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent.
Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI.
Non
logprobs booléen Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le content de message. Non False
top_logprobs entier Entier compris entre 0 et 20 spécifiant le nombre des jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. logprobs devez être défini sur true si ce paramètre est utilisé. Non
n entier Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés pour tous les choix. Gardez n défini sur 1 pour minimiser les coûts. Non 1
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Non True
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Objet spécifiant le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non
seed entier Cette fonctionnalité est en version bêta.
S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.
Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end.
Non
stream_options chatCompletionStreamOptions Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
Non Aucune
outils tableau Liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option afin de fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge.
Non
tool_choice chatCompletionToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère un message à la place. auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si des outils sont présents. Non
function_call chaîne ou chatCompletionFunctionCallOption Déconseillé en faveur de tool_choice.

Contrôle la fonction (le cas échéant) appelée par le modèle.
none signifie que le modèle n’appelle pas de fonction et génère un message à la place.
auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.
La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

none est la valeur par défaut lorsqu’aucune fonction n’est présente. auto est la valeur par défaut si des fonctions sont présentes.
Non
functions tableau Déconseillé en faveur de tools.

Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON.
Non

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json createChatCompletionResponse ou createChatCompletionStreamResponse

Code d’état : par défaut

Description : Service non disponible

Content-Type Type Description
application/json errorResponse

Exemples

Exemple

Crée un achèvement pour le prompt fourni, les paramètres et le modèle choisi.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemple

Crée un achèvement basé sur les données Recherche Azure et l’identité managée affectée par le système.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemple

Crée un achèvement basé sur les données de vecteur d’image Recherche Azure.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemple

Crée un achèvement basé sur les données vectorielles Recherche Azure, le message précédent de l’Assistant et l’identité managée affectée par l’utilisateur(-trice).

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemple

Crée un achèvement pour l’index Azure Cosmos DB fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemple

Crée une complétion pour la base de données Mongo fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemple

Crée un achèvement pour l’index Elasticsearch fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemple

Crée un achèvement pour la ressource Pinecone fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcriptions – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview

Transcrit l’audio dans la langue d’entrée.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
id-de-déploiement path Oui string ID de déploiement du modèle chuchoteur.
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type : multipart/form-data

Nom Type Description Obligatoire Par défaut
file string L’objet de fichier audio à transcrire. Oui
prompt string Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. Non
response_format audioResponseFormat Définit le format de la sortie. Non
température nombre Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. Non 0
langage string La langue de l’audio d’entrée. Donner la langue d’entrée au format ISO-639-1 améliore la précision et la latence. Non
timestamp_granularities[] tableau Les granularités d’horodatage à remplir pour cette transcription. response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : word ou segment. Remarque : il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. Non ['segment']

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json audioResponse ou audioVerboseResponse
text/plain string Texte transcrit au format de sortie (lorsque response_format était text, vtt ou srt).

Exemples

Exemple

Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemple

Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code d’état : 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traductions – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview

Transcrit et traduit l’audio d’entrée en texte anglais.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
id-de-déploiement path Oui string ID de déploiement du modèle chuchoteur qui a été déployé.
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type : multipart/form-data

Nom Type Description Obligatoire Par défaut
file string Le fichier audio à traduire. Oui
prompt string Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Le prompt doit être en anglais. Non
response_format audioResponseFormat Définit le format de la sortie. Non
température nombre Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. Non 0

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json audioResponse ou audioVerboseResponse
text/plain string Texte transcrit au format de sortie (lorsque response_format était text, vtt ou srt).

Exemples

Exemple

Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code d’état : 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemple

Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code d’état : 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Voix – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview

Génère de l’audio à partir du texte d’entrée.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
id-de-déploiement path Oui string ID de déploiement du modèle tts qui a été déployé.
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type : multipart/form-data

Nom Type Description Obligatoire Par défaut
entrée string Le texte pour lequel synthétiser l’audio. La longueur maximale est de 4 096 caractères. Oui
voice enum La voix à utiliser pour la synthèse vocale.
Valeurs possibles : alloy, echo, fable, onyx, nova, shimmer
Oui
response_format enum Le format dans lequel synthétiser l’audio.
Valeurs possibles : mp3, opus, aac, flac, wav, pcm
Non
speed nombre La vitesse de l’audio synthétisé. Sélectionnez une valeur entre 0.25 et 4.0. 1.0 est la valeur par défaut. Non 1.0

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/octet-stream string

Exemples

Exemple

Synthétise l’audio à partir du texte fourni.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Réponses : Code d’état : 200

{
  "body": "101010101"
}

Générations d’images – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview

Génère un lot d’images à partir d’une légende de texte sur un modèle de déploiement DALLE donné

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
id-de-déploiement path Oui string ID de déploiement du modèle dalle qui a été déployé.
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
prompt string Description textuelle de la ou des images souhaitées. La longueur maximale est de 4 000 caractères. Oui
n entier Nombre d’images à générer. Non 1
size imageSize Taille des images générées. Non 1024 x 1024
response_format imagesResponseFormat Format dans lequel les images générées sont retournées. Non url
utilisateur string Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. Non
des données imageQuality La qualité de l’image qui sera générée. Non standard
style imageStyle Le style des images générées. Non vivid

Réponses

Code d’état : 200

Description : Ok

Content-Type Type Description
application/json generateImagesResponse

Code d’état : par défaut

Description : Désolé, une erreur s’est produite.

Content-Type Type Description
application/json dalleErrorResponse

Exemples

Exemple

Crée des images en fonction d’un prompt donné.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Réponses : Code d’état : 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Répertorier – Assistants

GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview

Retourne une liste d’Assistants.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
limit query Non entier
order query Non string
after query Non string
before query Non string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json listAssistantsResponse

Exemples

Exemple

Retourne une liste d’Assistants.

GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Créer – Assistant

POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview

Créez un assistant avec un modèle et des instructions.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
modèle Oui
name chaîne Nom de l’assistant. La longueur maximale est de 256 caractères.
Non
description string Description de l’assistant. La longueur maximale est de 512 caractères.
Non
détaillées string Instructions système utilisées par l’assistant. La longueur maximale est de 256 000 caractères.
Non
tools tableau Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval ou function.
Non []
tool_resources object Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non
température number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Non 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
Non 1
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non

Propriétés de tool_resources

code_interpreter

Nom Type Description Default
file_ids tableau Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
[]
Nom Type Description Default
vector_store_ids tableau Le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un magasin de vecteurs au maximum attaché à l’assistant.
vector_stores tableau Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à cet Assistant. Il peut y avoir un magasin de vecteurs au maximum attaché à l’assistant.

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json assistantObject Représente un assistant qui peut appeler le modèle et utiliser des outils.

Exemples

Exemple

Créez un assistant avec un modèle et des instructions.

POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Obtenir – Assistant

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Récupère un assistant.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
assistant_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json assistantObject Représente un assistant qui peut appeler le modèle et utiliser des outils.

Exemples

Exemple

Récupère un assistant.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modifier – Assistant

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Modifie un assistant.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
assistant_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
modèle Non
nom chaîne Nom de l’assistant. La longueur maximale est de 256 caractères.
Non
description string Description de l’assistant. La longueur maximale est de 512 caractères.
Non
détaillées string Instructions système utilisées par l’assistant. La longueur maximale est de 32 768 caractères.
Non
tools tableau Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval ou function.
Non []
tool_resources object Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non
température number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Non 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
Non 1
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non

Propriétés de tool_resources

code_interpreter

Nom Type Description Default
file_ids tableau Remplace la liste des ID de fichiers mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
[]

file_search

Nom Type Description Default
vector_store_ids tableau Remplace le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un magasin de vecteurs au maximum attaché à l’assistant.

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json assistantObject Représente un assistant qui peut appeler le modèle et utiliser des outils.

Exemples

Exemple

Modifie un assistant.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Supprimer – Assistant

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Supprimez un assistant.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
assistant_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json deleteAssistantResponse

Exemples

Exemple

Supprime un Assistant.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Créer – Thread

POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview

Créez un fil de discussion.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
Cloud vers appareil tableau Une liste de messages avec lesquels démarrer le fil de discussion. Non
tool_resources object Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non

Propriétés de tool_resources

code_interpreter

Nom Type Description Default
file_ids tableau Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
[]

file_search

Nom Type Description Default
vector_store_ids tableau Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread.
vector_stores tableau Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread.

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json threadObject Représente un thread qui contient des messages.

Exemples

Exemple

Crée un thread.

POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Obtenir – Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Récupère un thread.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json threadObject Représente un thread qui contient des messages.

Exemples

Exemple

Récupère un thread.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modifier – Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Modifie un thread.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
tool_resources object Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non

Propriétés de tool_resources

code_interpreter

Nom Type Description Default
file_ids tableau Une liste des ID de fichiers mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
[]

file_search

Nom Type Description Default
vector_store_ids tableau Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread.

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json threadObject Représente un thread qui contient des messages.

Exemples

Exemple

Modifie un thread.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Supprimer – Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Supprimez un thread.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json deleteThreadResponse

Exemples

Exemple

Supprime un fil.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Répertorier – Messages

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview

Retourne une liste de messages pour un thread donné.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
limit query Non entier
order query Non string
after query Non string
before query Non string
run_id query Non string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json listMessagesResponse

Exemples

Exemple

Répertorier les messages

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Créer – Message

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview

Créer un message.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
role string Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes :
- user : indique l’envoi du message par un utilisateur réel, doit être utilisé dans la plupart des cas pour représenter des messages générés par l’utilisateur.
- assistant : indique la génération du message par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation.
Oui
content string Contenu du message. Oui
attachments tableau Une liste des fichiers attachés au message et des outils auxquels ils doivent être ajoutés. Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json messageObject Représente un message dans un thread.

Exemples

Exemple

Créer un message.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Obtenir – Message

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview

Récupérez un message.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
message_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json messageObject Représente un message dans un thread.

Exemples

Exemple

Récupérez un message.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Modifier – Message

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview

Modifie un message.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
message_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json messageObject Représente un message dans un thread.

Exemples

Exemple

Modifiez un message.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Créer – Thread et exécution

POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview

Créez un thread et exécutez-le dans une seule requête.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
assistant_id string ID de l’assistant à utiliser pour cette exécution. Oui
thread createThreadRequest Non
modèle string Nom de déploiement du modèle à utiliser pour cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. Non
détaillées string Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. Non
tools tableau Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. Non
tool_resources object Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non
température number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Non 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
Non 1
flux booléen Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE].
Non
stream_options chatCompletionStreamOptions Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
Non Aucune
max_prompt_tokens entier Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
Non
max_completion_tokens entier Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
Non
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. Non
tool_choice assistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère un message à la place.
auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Non
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Non True
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non

Propriétés de tool_resources

code_interpreter

Nom Type Description Default
file_ids tableau Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
[]

file_search

Nom Type Description Default
vector_store_ids tableau L’ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un magasin de vecteurs au maximum attaché à l’assistant.

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json runObject Représente une exécution sur un thread.

Exemples

Exemple

Créez un thread et exécutez-le dans une seule requête.

POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Répertorier – Exécutions

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview

Retourne une liste d’exécutions appartenant à un thread.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
limit query Non entier
order query Non string
after query Non string
before query Non string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json listRunsResponse

Exemples

Exemple

Retourne une liste d’exécutions appartenant à un thread.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Créer – Exécution

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview

Créer une exécution.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
assistant_id string ID de l’assistant à utiliser pour cette exécution. Oui
modèle string L’ID du modèle à utiliser pour lancer cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. Non
détaillées string Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. Non
additional_instructions string Ajoute des instructions supplémentaires à la fin des instructions de l’exécution. Cela est utile pour modifier le comportement lors de chaque exécution sans remplacer d’autres instructions. Non
additional_messages tableau Ajoute des messages supplémentaires au thread avant de créer l’exécution. Non
tools tableau Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non
température number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Non 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
Non 1
flux booléen Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE].
Non
max_prompt_tokens entier Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
Non
max_completion_tokens entier Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
Non
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. Non
tool_choice assistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère un message à la place.
auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Non
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Non True
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json runObject Représente une exécution sur un thread.

Exemples

Exemple

Créer une exécution.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview

{
 "assistant_id": "asst_abc123"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Obtenir – Exécution

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview

Récupère une exécution.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
run_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json runObject Représente une exécution sur un thread.

Exemples

Exemple

Obtient une exécution.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modifier – Exécution

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview

Modifie une exécution.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
run_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json runObject Représente une exécution sur un thread.

Exemples

Exemple

Modifie une exécution.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Envoyer – Sorties d’outil à exécuter

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview

Lorsqu’une exécution a status: "requires_action" et required_action.type est submit_tool_outputs, ce point de terminaison peut être utilisé pour envoyer les sorties à partir des appels d’outil une fois qu’elles sont toutes terminées. Toutes les sorties doivent être envoyées dans une seule requête.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
run_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
tool_outputs tableau Liste des outils pour lesquels les sorties sont envoyées. Oui
flux booléen Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE].
Non

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json runObject Représente une exécution sur un thread.

Exemples

Exemple

Lorsqu’une exécution a status: "requires_action" et required_action.type est submit_tool_outputs, ce point de terminaison peut être utilisé pour envoyer les sorties à partir des appels d’outil une fois qu’elles sont toutes terminées. Toutes les sorties doivent être envoyées dans une seule requête.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Annuler – Exécution

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview

Annule une exécution qui est in_progress.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
run_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json runObject Représente une exécution sur un thread.

Exemples

Exemple

Annule une exécution qui est in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Répertorier – Étapes d’exécution

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview

Retourne une liste des étapes d’exécution appartenant à une exécution.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
run_id path Oui string
limit query Non entier
order query Non string
after query Non string
before query Non string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json listRunStepsResponse

Exemples

Exemple

Retourne une liste des étapes d’exécution appartenant à une exécution.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Obtenir – Étape d’exécution

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview

Récupère une étape d’exécution.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
thread_id path Oui string
run_id path Oui string
step_id path Oui string
api-version query Oui string Version de l'API

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json runStepObject Représente une étape dans une exécution.

Exemples

Exemple

Récupère une étape d’exécution.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Répertorier – Magasins de vecteurs

GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview

Retourne une liste de magasins de vecteurs.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
limit query Non entier
order query Non string
after query Non string
before query Non string
api-version query Oui string

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json listVectorStoresResponse

Exemples

Exemple

Retourne une liste de magasins de vecteurs.

GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Créer – Magasin de vecteurs

POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview

Créez un magasin de vecteurs.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
api-version query Oui string

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
file_ids tableau Une liste des ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. Non
nom chaîne Le nom du magasin de vecteurs. Non
expires_after vectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. Non
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreObject Un magasin de vecteurs est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search.

Exemples

Exemple

Crée un magasin de vecteurs.

POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Obtenir – Magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Récupère un magasin de vecteurs.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
vector_store_id path Oui string
api-version query Oui string

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreObject Un magasin de vecteurs est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search.

Exemples

Exemple

Récupère un magasin de vecteurs.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modifier – Magasin de vecteurs

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Modifie un magasin de vecteurs.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
vector_store_id path Oui string
api-version query Oui string

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Default
name chaîne Le nom du magasin de vecteurs. Non
expires_after vectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreObject Un magasin de vecteurs est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search.

Exemples

Exemple

Modifie un magasin de vecteurs.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

{
 "name": "Support FAQ"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Supprimer – Magasin de vecteurs

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Supprimez un magasin de vecteurs.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
vector_store_id path Oui string
api-version query Oui string

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json deleteVectorStoreResponse

Exemples

Exemple

Supprime un magasin de vecteurs.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Répertorier – Fichiers de magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview

Retourne une liste de fichiers de magasin de vecteurs.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
vector_store_id path Oui string
limit query Non entier
order query Non string
after query Non string
before query Non string
filter query Non string
api-version query Oui string

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Exemples

Exemple

Retourne une liste de fichiers de magasin de vecteurs.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Créer – Fichier de magasin de vecteurs

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview

Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin de vecteurs.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
vector_store_id path Oui string
api-version query Oui string

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
file_id string Un ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. Oui
chunking_strategy chunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Non

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreFileObject Une liste de fichiers attachés à un magasin de vecteurs.

Exemples

Exemple

Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin de vecteurs.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview

{
 "file_id": "file-abc123"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Obtenir – Fichier de magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview

Récupère un fichier de magasin de vecteurs.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
vector_store_id path Oui string
file_id path Oui string
api-version query Oui string

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreFileObject Une liste de fichiers attachés à un magasin de vecteurs.

Exemples

Exemple

Récupère un fichier de magasin de vecteurs.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Supprimer – Fichier de magasin de vecteurs

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview

Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin de vecteurs, mais le fichier lui-même n’est pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de suppression de fichier.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
vector_store_id path Oui string
file_id path Oui string
api-version query Oui string

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json deleteVectorStoreFileResponse

Exemples

Exemple

Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin de vecteurs, mais le fichier lui-même n’est pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de suppression de fichier.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Créer – Lot de fichiers de magasin de vecteurs

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview

Créez un lot de fichiers de magasin de vecteurs.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
vector_store_id path Oui string
api-version query Oui string

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la demande

Content-Type: application/json

Nom Type Description Obligatoire Par défaut
file_ids tableau Une liste d’ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. Oui
chunking_strategy chunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Non

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreFileBatchObject Un lot de fichiers attaché à un magasin de vecteurs.

Exemples

Exemple

Créez un lot de fichiers de magasin de vecteurs.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Réponses : Code d’état : 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Obtenir – Lot de fichiers de magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview

Récupère un lot de fichiers de magasin de vecteurs.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
vector_store_id path Oui string
batch_id path Oui string
api-version query Oui string

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreFileBatchObject Un lot de fichiers attaché à un magasin de vecteurs.

Exemples

Exemple

Récupère un lot de fichiers de magasin de vecteurs.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Annuler – Lot de fichiers du magasin de vecteurs

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview

Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
vector_store_id path Oui string
batch_id path Oui string
api-version query Oui string

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreFileBatchObject Un lot de fichiers attaché à un magasin de vecteurs.

Exemples

Exemple

Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Répertorier – Fichiers de lot de fichiers de magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview

Retourne une liste de fichiers de magasin de vecteurs dans un lot.

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint path Oui string
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
vector_store_id path Oui string
batch_id path Oui string
limit query Non entier
order query Non string
after query Non string
before query Non string
filter query Non string
api-version query Oui string

En-tête de requête

Nom Requise Type Description
api-key True string Fournir une clé API Azure OpenAI ici

Réponses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Exemples

Exemple

Retourne une liste de fichiers de magasin de vecteurs.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Composants

errorResponse

Nom Type Description Obligatoire Par défaut
error error Non

errorBase

Nom Type Description Obligatoire Default
code string Non
message string Non

error

Nom Type Description Obligatoire Par défaut
param string Non
type string Non
inner_error innerError Erreur interne avec des détails supplémentaires. Non

innerError

Erreur interne avec des détails supplémentaires.

Nom Type Description Obligatoire Default
code innerErrorCode Codes d’erreur pour l’objet d’erreur interne. Non
content_filter_results contentFilterPromptResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. Non

innerErrorCode

Codes d’erreur pour l’objet d’erreur interne.

Description : codes d’erreur pour l’objet d’erreur interne.

Type : string

Par défaut :

Nom de l’énumération : InnerErrorCode

Valeurs d’énumération :

Valeur Description
ResponsibleAIPolicyViolation Le prompt a enfreint une ou plusieurs règles de filtrage de contenu.

dalleErrorResponse

Nom Type Description Obligatoire Par défaut
error dalleError Non

dalleError

Nom Type Description Obligatoire Par défaut
param string Non
type string Non
inner_error dalleInnerError Erreur interne avec des détails supplémentaires. Non

dalleInnerError

Erreur interne avec des détails supplémentaires.

Nom Type Description Obligatoire Default
code innerErrorCode Codes d’erreur pour l’objet d’erreur interne. Non
content_filter_results dalleFilterResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. Non
revised_prompt string Le prompt utilisé pour générer l’image, s’il y a eu une révision de l’invite. Non

contentFilterCompletionTextSpan

Permet de décrire une étendue dans le texte de saisie semi-automatique générée. Le décalage 0 est le premier code de caractère UTF32 du texte de saisie semi-automatique.

Nom Type Description Obligatoire Par défaut
completion_start_offset entier Décalage du code de caractère UTF32 qui commence l’étendue. Oui
completion_end_offset entier Décalage du premier code de caractère UTF32 exclu de l’étendue. Ce champ est toujours égal à completion_start_offset pour les étendues vides. Ce champ est toujours plus grand que completion_start_offset pour les étendues non vides. Oui

contentFilterResultBase

Nom Type Description Obligatoire Par défaut
filtered booléen Oui

contentFilterSeverityResult

Nom Type Description Obligatoire Par défaut
filtered booléen Oui
gravité string Non

contentFilterDetectedResult

Nom Type Description Obligatoire Par défaut
filtered booléen Oui
détecté booléen Non

contentFilterDetectedWithCitationResult

Nom Type Description Obligatoire Par défaut
citation object Non

Propriétés de la citation

URL

Nom Type Description Default
URL string

license

Nom Type Description Default
licence string

contentFilterDetectedWithCompletionTextSpansResult

Nom Type Description Obligatoire Par défaut
details tableau Non

contentFilterIdResult

Nom Type Description Obligatoire Par défaut
filtered booléen Oui
id string Non

contentFilterResultsBase

Informations sur les résultats du filtrage de contenu.

Nom Type Description Obligatoire Par défaut
sexuel contentFilterSeverityResult Non
violence contentFilterSeverityResult Non
haine contentFilterSeverityResult Non
self_harm contentFilterSeverityResult Non
profanité contentFilterDetectedResult Non
custom_blocklists contentFilterDetailedResults Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. Non
error errorBase Non

contentFilterPromptResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID.

Nom Type Description Obligatoire Par défaut
sexuel contentFilterSeverityResult Non
violence contentFilterSeverityResult Non
haine contentFilterSeverityResult Non
self_harm contentFilterSeverityResult Non
profanité contentFilterDetectedResult Non
custom_blocklists contentFilterDetailedResults Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. Non
error errorBase Non
jailbreak contentFilterDetectedResult Non
indirect_attack contentFilterDetectedResult Non

contentFilterChoiceResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, automutilation), s’il a été détecté, ainsi que le niveau de gravité (une échelle très faible, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le texte et la profanité tiers, s’il a été détecté et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID.

Nom Type Description Obligatoire Par défaut
sexuel contentFilterSeverityResult Non
violence contentFilterSeverityResult Non
haine contentFilterSeverityResult Non
self_harm contentFilterSeverityResult Non
profanité contentFilterDetectedResult Non
custom_blocklists contentFilterDetailedResults Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. Non
error errorBase Non
protected_material_text contentFilterDetectedResult Non
protected_material_code contentFilterDetectedWithCitationResult Non
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult Non

contentFilterDetailedResults

Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés.

Nom Type Description Obligatoire Par défaut
filtered booléen Oui
details tableau Non

promptFilterResult

Résultats du filtrage de contenu pour un seul prompt dans la requête.

Nom Type Description Obligatoire Par défaut
prompt_index entier Non
content_filter_results contentFilterPromptResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. Non

promptFilterResults

Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents.

Aucune propriété définie pour ce composant.

dalleContentFilterResults

Informations sur les résultats du filtrage de contenu.

Nom Type Description Obligatoire Par défaut
sexuel contentFilterSeverityResult Non
violence contentFilterSeverityResult Non
haine contentFilterSeverityResult Non
self_harm contentFilterSeverityResult Non

dalleFilterResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID.

Nom Type Description Obligatoire Par défaut
sexuel contentFilterSeverityResult Non
violence contentFilterSeverityResult Non
haine contentFilterSeverityResult Non
self_harm contentFilterSeverityResult Non
profanité contentFilterDetectedResult Non
jailbreak contentFilterDetectedResult Non
custom_blocklists contentFilterDetailedResults Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. Non

chatCompletionsRequestCommon

Nom Type Description Obligatoire Par défaut
température number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
Non 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.
Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
Non 1
flux booléen Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE]. Non False
stop chaîne ou tableau Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. Non
max_tokens entier Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4 096 : jetons d’invite). N’est pas compatible avec les modèles de série o1. Non 4096
max_completion_tokens entier Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. Elle est uniquement prise en charge dans les modèles de série o1. Expansion de la prise en charge d’autres modèles dans une future version d’API. Non
presence_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. Non 0
frequency_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. Non 0
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. Non
utilisateur string Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus. Non

createCompletionRequest

Nom Type Description Obligatoire Par défaut
prompt chaîne ou tableau Prompt ou prompts pour lesquels il faut générer des complétions, avec encodage sous forme de chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons.

Notez que <|endoftext|> est le séparateur de documents que le modèle voit lors de la formation. Par conséquent, si un prompt n’est pas spécifié, le modèle est généré comme s’il s’agissait du début d’un nouveau document.
Oui
best_of entier Génère des complétions best_of côté serveur et retourne la « meilleure » (celle avec la probabilité logarithmique la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.

Quand il est utilisé avec n, best_of contrôle le nombre de complétions candidates, et n spécifie le nombre de retours. best_of doit être supérieur à n.

Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop.
Non 1
echo booléen Renvoyer l’invite en plus de l’achèvement
Non False
frequency_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot.
Non 0
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement.

Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le générateur de jetons GPT) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.

Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du jeton <|endoftext|>.
Non Aucune
logprobs entier Inclut les probabilités logarithmiques sur les jetons de sortie logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est égal à 5, l’API retourne une liste des 5 jetons les plus probables. L’API retournant toujours le logprob du jeton échantillonné, il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse.

La valeur maximale de logprobs est 5.
Non Aucune
max_tokens entier Nombre maximal de jetons pouvant être générés dans la complétion.

Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle.
Non 16
n entier Nombre d’achèvements à générer pour chaque invite.

Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop.
Non 1
presence_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
Non 0
seed entier S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.

Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end.
Non
stop chaîne ou tableau Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.
Non
flux booléen Indique s’il faut renvoyer la progression partielle. S’ils sont définis, les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE].
Non False
suffix string Suffixe qui vient après l’achèvement d’un texte inséré.

Ce paramètre est uniquement pris en charge pour gpt-3.5-turbo-instruct.
Non Aucune
température number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
Non 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
Non 1
utilisateur string Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus.
Non

createCompletionResponse

Représente une réponse de complétion de l’API. Remarque : les objets de réponse diffusés en continu et non diffusés en continu partagent la même forme (contrairement au point de terminaison de conversation).

Nom Type Description Obligatoire Default
id string Identificateur unique de la saisie semi-automatique. Oui
options tableau Liste des choix d’achèvement générés pour l’invite d’entrée. Oui
created entier Horodatage Unix (en secondes) de la création de l’achèvement. Oui
modèle string Modèle utilisé pour la complétion. Oui
prompt_filter_results promptFilterResults Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. Non
system_fingerprint string Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute.

Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end.
Non
object enum Type d’objet, qui est toujours « text_completion »
Valeurs possibles : text_completion
Oui
utilisation completionUsage Statistiques d’utilisation pour la demande d’achèvement. Non

createChatCompletionRequest

Nom Type Description Obligatoire Par défaut
température number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
Non 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
Non 1
flux booléen Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE].
Non False
stop chaîne ou tableau Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons.
Non
max_tokens entier Nombre maximal de jetons pouvant être générés dans la complétion de conversation.

La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle.
Non
max_completion_tokens entier Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. Elle est uniquement prise en charge dans les modèles de série o1. Expansion de la prise en charge d’autres modèles dans une future version d’API. Non
presence_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
Non 0
frequency_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot.
Non 0
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement.

Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.
Non Aucune
utilisateur string Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus.
Non
Cloud vers appareil tableau Liste des messages comprenant la conversation jusqu’ici. Oui
data_sources tableau Les entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent.
Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI.
Non
logprobs booléen Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le content de message. Non False
top_logprobs entier Entier compris entre 0 et 20 spécifiant le nombre des jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. logprobs devez être défini sur true si ce paramètre est utilisé. Non
n entier Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés pour tous les choix. Gardez n défini sur 1 pour minimiser les coûts. Non 1
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Non True
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Objet spécifiant le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non
seed entier Cette fonctionnalité est en version bêta.
S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.
Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end.
Non
stream_options chatCompletionStreamOptions Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
Non Aucune
outils tableau Liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option afin de fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge.
Non
tool_choice chatCompletionToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère un message à la place. auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si des outils sont présents. Non
function_call chaîne ou chatCompletionFunctionCallOption Déconseillé en faveur de tool_choice.

Contrôle la fonction (le cas échéant) appelée par le modèle.
none signifie que le modèle n’appelle pas de fonction et génère un message à la place.
auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.
La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

none est la valeur par défaut lorsqu’aucune fonction n’est présente. auto est la valeur par défaut si des fonctions sont présentes.
Non
functions tableau Déconseillé en faveur de tools.

Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON.
Non

chatCompletionFunctions

Nom Type Description Obligatoire Default
description string Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. Non
nom chaîne Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. Oui
parameters FunctionParameters Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide (/azure/ai-services/openai/how-to/function-calling) pour obtenir des exemples, et consultez les informations de référence sur le schéma JSON pour obtenir de la documentation sur le format.

L’omission de parameters définit une fonction avec une liste de paramètres vide.
Non

chatCompletionFunctionCallOption

La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

Nom Type Description Obligatoire Default
name chaîne Nom de la fonction à appeler. Oui

chatCompletionFunctionParameters

Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour obtenir des exemples, et consultez les informations de référence sur le schéma JSON pour obtenir de la documentation sur le format.

Aucune propriété définie pour ce composant.

chatCompletionRequestMessage

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestSystemMessage

Nom Type Description Obligatoire Par défaut
content chaîne ou tableau Contenu du message système. Oui
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas system.
Valeurs possibles : system
Oui
name chaîne Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. Non

chatCompletionRequestUserMessage

Nom Type Description Obligatoire Par défaut
content chaîne ou tableau Contenu du message de l’utilisateur.
Oui
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas user.
Valeurs possibles : user
Oui
name chaîne Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. Non

chatCompletionRequestAssistantMessage

Nom Type Description Obligatoire Par défaut
content chaîne ou tableau Contenu du message de l’Assistant. Obligatoire, sauf si tool_calls ou function_call est spécifié.
Non
refusal string Message de refus de l’assistant. Non
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas assistant.
Valeurs possibles : assistant
Oui
name chaîne Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. Non
tool_calls chatCompletionMessageToolCalls Appels d’outils générés par le modèle, par exemple les appels de fonction. Non
function_call object Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. Non

Propriétés pour function_call

arguments

Nom Type Description Default
arguments string Arguments à utiliser pour appeler la fonction, tels qu’ils sont générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction.

name

Nom Type Description Default
name chaîne Nom de la fonction à appeler.

chatCompletionRequestToolMessage

Nom Type Description Obligatoire Par défaut
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas tool.
Valeurs possibles : tool
Oui
content chaîne ou tableau Contenu du message de l’outil. Oui
tool_call_id string Appel d’outil auquel ce message répond. Oui

chatCompletionRequestFunctionMessage

Nom Type Description Obligatoire Par défaut
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas function.
Valeurs possibles : fonction
Oui
content string Contenu du message de fonction. Oui
name chaîne Nom de la fonction à appeler. Oui

chatCompletionRequestSystemMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestUserMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestAssistantMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestToolMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestMessageContentPartText

Nom Type Description Obligatoire Default
type enum Le type de la partie contenu.
Valeurs possibles : text
Oui
texte string Texte. Oui

chatCompletionRequestMessageContentPartImage

Nom Type Description Obligatoire Default
type enum Le type de la partie contenu.
Valeurs possibles : image_url
Oui
image_url object Oui

Propriétés pour image_url

url

Nom Type Description Default
url string URL de l’image ou des données d’image encodées en base64.

detail

Nom Type Description Default
detail string Spécifie le niveau de détail de l’image. Découvrez-en plus en consultant le guide de Vision. auto

chatCompletionRequestMessageContentPartRefusal

Nom Type Description Obligatoire Default
type enum Le type de la partie contenu.
Valeurs possibles : refusal
Oui
refusal string Message de refus généré par le modèle. Oui

azureChatExtensionConfiguration

Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.

Nom Type Description Obligatoire Default
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation
des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Oui

azureChatExtensionType

Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.

Description : une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation
des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.

Type : string

Par défaut :

Nom de l’énumération : AzureChatExtensionType

Valeurs d’énumération :

Valeur Description
azure_search Représente l’utilisation de Recherche Azure en tant qu’extension de conversation Azure OpenAI.
azure_cosmos_db Représente l’utilisation d’Azure Cosmos DB comme extension de conversation Azure OpenAI.
elasticsearch Représente l’utilisation de l’index Elasticsearch® comme extension de conversation Azure OpenAI.
mongo_db Représente l’utilisation de MongoDB comme extension de conversation Azure OpenAI.
pinecone Représente l’utilisation de l’index Pinecone comme extension de conversation Azure OpenAI.

azureSearchChatExtensionConfiguration

Une représentation spécifique des options configurables pour Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Nom Type Description Obligatoire Default
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation
des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Oui
parameters azureSearchChatExtensionParameters Paramètres de Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI. Non

azureSearchChatExtensionParameters

Paramètres de Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Nom Type Description Obligatoire Par défaut
authentication onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions Oui
top_n_documents entier Le nombre maximal de documents à proposer pour la requête configurée. Non
max_search_queries entier Nombre maximal de requêtes réécrites devant être envoyées au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. Non
allow_partial_result booléen Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. Non False
in_scope booléen Indique si les requêtes doivent être limitées à l’utilisation de données indexées. Non
sévérité entier La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée, mais plus faible sera le rappel de la réponse. Non
endpoint string Chemin d’accès du point de terminaison absolu de la ressource Recherche cognitive Azure à utiliser. Oui
index_name string Le nom de l’index à utiliser comme disponible dans la ressource Recherche Azure référencée. Oui
fields_mapping azureSearchIndexFieldMappingOptions Paramètres facultatifs permettant de contrôler le traitement des champs lors de l'utilisation d'une ressource Azure Search configurée. Non
query_type azureSearchQueryType Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI. Non
semantic_configuration string La configuration sémantique supplémentaire pour la requête. Non
filter string Filtre de recherche. Non
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource Non
include_contexts tableau Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. Non

azureSearchIndexFieldMappingOptions

Paramètres facultatifs permettant de contrôler le traitement des champs lors de l'utilisation d'une ressource Azure Search configurée.

Nom Type Description Obligatoire Par défaut
title_field string Nom du champ d’index à utiliser comme titre. Non
url_field string Nom du champ d’index à utiliser comme URL. Non
filepath_field string Le nom du champ d’index à utiliser comme chemin d’accès au fichier. Non
content_fields tableau Les noms des champs d’index qui doivent être traités comme du contenu. Non
content_fields_separator string Le modèle de séparation que les champs de contenu doivent utiliser. Non
vector_fields tableau Noms de champs qui représentent des données vectorielles. Non
image_vector_fields tableau Les noms des champs qui représentent des données de vecteurs d’image. Non

azureSearchQueryType

Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Description : le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Type : string

Par défaut :

Nom de l’énumération : AzureSearchQueryType

Valeurs d’énumération :

Valeur Description
simple Représente l'analyseur de requêtes simple par défaut.
sémantique Représente l'analyseur de requêtes sémantiques pour la modélisation sémantique avancée.
vector Représente la recherche vectorielle sur des données calculées.
vector_simple_hybrid Représente une combinaison de la stratégie d'interrogation simple avec des données vectorielles.
vector_semantic_hybrid Représente une combinaison de recherche sémantique et d'interrogation de données vectorielles.

azureCosmosDBChatExtensionConfiguration

Une représentation spécifique des options configurables pour Azure Cosmos DB lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Nom Type Description Obligatoire Default
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation
des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Oui
parameters azureCosmosDBChatExtensionParameters Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation d’Azure Cosmos DB for
MongoDB vCore.
Non

azureCosmosDBChatExtensionParameters

Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation d’Azure Cosmos DB for MongoDB vCore.

Nom Type Description Obligatoire Par défaut
authentication onYourDataConnectionStringAuthenticationOptions Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion. Oui
top_n_documents entier Le nombre maximal de documents à proposer pour la requête configurée. Non
max_search_queries entier Nombre maximal de requêtes réécrites devant être envoyées au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. Non
allow_partial_result booléen Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. Non False
in_scope booléen Indique si les requêtes doivent être limitées à l’utilisation de données indexées. Non
sévérité entier La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée, mais plus faible sera le rappel de la réponse. Non
database_name string Le nom de la base de données du cœur virtuel MongoDB à utiliser avec Azure Cosmos DB. Oui
container_name string Le nom du conteneur de ressource SQL Azure Cosmos DB. Oui
index_name string Le nom de l’index du cœur virtuel MongoDB à utiliser avec Azure Cosmos DB. Oui
fields_mapping azureCosmosDBFieldMappingOptions Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée. Oui
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Oui
include_contexts tableau Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. Non

azureCosmosDBFieldMappingOptions

Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée.

Nom Type Description Obligatoire Par défaut
title_field string Nom du champ d’index à utiliser comme titre. Non
url_field string Nom du champ d’index à utiliser comme URL. Non
filepath_field string Le nom du champ d’index à utiliser comme chemin d’accès au fichier. Non
content_fields tableau Les noms des champs d’index qui doivent être traités comme du contenu. Oui
content_fields_separator string Le modèle de séparation que les champs de contenu doivent utiliser. Non
vector_fields tableau Noms de champs qui représentent des données vectorielles. Oui

elasticsearchChatExtensionConfiguration

Une représentation spécifique des options configurables pour Elasticsearch lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Nom Type Description Obligatoire Default
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation
des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Oui
parameters elasticsearchChatExtensionParameters Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de conversation Azure OpenAI. Non

elasticsearchChatExtensionParameters

Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de conversation Azure OpenAI.

Nom Type Description Obligatoire Par défaut
authentication onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions Oui
top_n_documents entier Le nombre maximal de documents à proposer pour la requête configurée. Non
max_search_queries entier Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. Non
allow_partial_result booléen Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. Non False
in_scope booléen Indique si les requêtes doivent être limitées à l’utilisation de données indexées. Non
sévérité entier La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée, mais plus faible sera le rappel de la réponse. Non
endpoint string Le point de terminaison d’Elasticsearch®. Oui
index_name string Le nom d’index d’Elasticsearch®. Oui
fields_mapping elasticsearchIndexFieldMappingOptions Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée. Non
query_type elasticsearchQueryType Le type de requête de récupération Elasticsearch® qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI. Non
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource Non
include_contexts tableau Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. Non

elasticsearchIndexFieldMappingOptions

Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée.

Nom Type Description Obligatoire Par défaut
title_field string Nom du champ d’index à utiliser comme titre. Non
url_field string Nom du champ d’index à utiliser comme URL. Non
filepath_field string Le nom du champ d’index à utiliser comme chemin d’accès au fichier. Non
content_fields tableau Les noms des champs d’index qui doivent être traités comme du contenu. Non
content_fields_separator string Le modèle de séparation que les champs de contenu doivent utiliser. Non
vector_fields tableau Noms de champs qui représentent des données vectorielles. Non

elasticsearchQueryType

Le type de requête de récupération Elasticsearch® qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Description : le type de requête de récupération Elasticsearch® qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Type : string

Par défaut :

Nom de l’énumération : ElasticsearchQueryType

Valeurs d’énumération :

Valeur Description
simple Représente l'analyseur de requêtes simple par défaut.
vector Représente la recherche vectorielle sur des données calculées.

mongoDBChatExtensionConfiguration

Représentation spécifique des options configurables pour MongoDB lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Nom Type Description Obligatoire Default
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation
des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Oui
parameters mongoDBChatExtensionParameters Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation de MongoDB. Non

mongoDBChatExtensionParameters

Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation de MongoDB.

Nom Type Description Obligatoire Par défaut
authentication onYourDataUsernameAndPasswordAuthenticationOptions Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe. Oui
top_n_documents entier Le nombre maximal de documents à proposer pour la requête configurée. Non
max_search_queries entier Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. Non
allow_partial_result booléen Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. Non False
in_scope booléen Indique si les requêtes doivent être limitées à l’utilisation de données indexées. Non
sévérité entier La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée, mais plus faible sera le rappel de la réponse. Non
endpoint string Nom du point de terminaison du cluster MongoDB. Oui
database_name string Nom de la base de données MongoDB. Oui
collection_name string Nom de la collection MongoDB. Oui
app_name string Nom de l’application MongoDB. Oui
index_name string Nom de l’index MongoDB. Oui
fields_mapping mongoDBFieldMappingOptions Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource MongoDB configurée. Oui
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Oui
include_contexts tableau Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. Non

mongoDBFieldMappingOptions

Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource MongoDB configurée.

Nom Type Description Obligatoire Par défaut
title_field string Nom du champ d’index à utiliser comme titre. Non
url_field string Nom du champ d’index à utiliser comme URL. Non
filepath_field string Le nom du champ d’index à utiliser comme chemin d’accès au fichier. Non
content_fields tableau Les noms des champs d’index qui doivent être traités comme du contenu. Oui
content_fields_separator string Le modèle de séparation que les champs de contenu doivent utiliser. Non
vector_fields tableau Noms de champs qui représentent des données vectorielles. Oui

pineconeChatExtensionConfiguration

Une représentation spécifique des options configurables pour Pinecone lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Nom Type Description Obligatoire Default
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation
des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Oui
parameters pineconeChatExtensionParameters Paramètres de configuration des extensions de conversation Azure OpenAI Pinecone. Non

pineconeChatExtensionParameters

Paramètres de configuration des extensions de conversation Azure OpenAI Pinecone.

Nom Type Description Obligatoire Par défaut
authentication onYourDataApiKeyAuthenticationOptions Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API. Oui
top_n_documents entier Le nombre maximal de documents à proposer pour la requête configurée. Non
max_search_queries entier Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. Non
allow_partial_result booléen Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. Non False
in_scope booléen Indique si les requêtes doivent être limitées à l’utilisation de données indexées. Non
sévérité entier La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée, mais plus faible sera le rappel de la réponse. Non
Environnement string Le nom de l’environnement de Pinecone. Oui
index_name string Le nom de l’index de base de données Pinecone. Oui
fields_mapping pineconeFieldMappingOptions Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée. Oui
embedding_dependency onYourDataDeploymentNameVectorizationSource Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée
sur un nom de modèle de déploiement d’incorporation interne dans la même ressource Azure OpenAI.
Oui
include_contexts tableau Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. Non

pineconeFieldMappingOptions

Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée.

Nom Type Description Obligatoire Par défaut
title_field string Nom du champ d’index à utiliser comme titre. Non
url_field string Nom du champ d’index à utiliser comme URL. Non
filepath_field string Le nom du champ d’index à utiliser comme chemin d’accès au fichier. Non
content_fields tableau Les noms des champs d’index qui doivent être traités comme du contenu. Oui
content_fields_separator string Le modèle de séparation que les champs de contenu doivent utiliser. Non

onYourDataAuthenticationOptions

Les options d’authentification pour Azure OpenAI sur vos données.

Nom Type Description Obligatoire Default
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Oui

onYourDataContextProperty

La propriété de contexte.

Description : la propriété de contexte.

Type : string

Par défaut :

Nom de l’énumération : OnYourDataContextProperty

Valeurs d’énumération :

Valeur Description
citations La propriété citations.
intention La propriété intent.
all_retrieved_documents La propriété all_retrieved_documents.

onYourDataAuthenticationType

Les types d’authentification pris en charge avec Azure OpenAI sur vos données.

Description : les types d’authentification pris en charge avec Azure OpenAI sur vos données.

Type : string

Par défaut :

Nom de l’énumération : OnYourDataAuthenticationType

Valeurs d’énumération :

Valeur Description
api_key Authentification avec clé API.
connection_string Authentification avec chaîne de connexion.
key_and_key_id Authentification avec paire clé et ID de clé.
encoded_api_key Authentification avec clé API encodée.
access_token Authentification avec jeton d’accès.
system_assigned_managed_identity Authentification avec identité managée affectée par le système.
user_assigned_managed_identity Authentification avec identité managée affectée par l’utilisateur(-trice).
username_and_password Authentification par nom d’utilisateur et mot de passe.

onYourDataApiKeyAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API.

Nom Type Description Obligatoire Default
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Oui
key string Clé API à utiliser pour l’authentification. Non

onYourDataConnectionStringAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion.

Nom Type Description Obligatoire Default
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Oui
connection_string string La chaîne de connexion à utiliser pour l’authentification. Non

onYourDataKeyAndKeyIdAuthenticationOptions

Les options d’authentification d’Azure OpenAI sur vos données lors de l’utilisation d’une paire clé et ID de clé Elasticsearch.

Nom Type Description Obligatoire Default
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Oui
key string Clé Elasticsearch à utiliser pour l’authentification. Non
key_id string ID de clé Elasticsearch à utiliser pour l’authentification. Non

onYourDataEncodedApiKeyAuthenticationOptions

Les options d’authentification d’Azure OpenAI sur vos données lors de l’utilisation d’une clé API encodée Elasticsearch.

Nom Type Description Obligatoire Default
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Oui
encoded_api_key string Clé API encodée Elasticsearch à utiliser pour l’authentification. Non

onYourDataAccessTokenAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un jeton d’accès.

Nom Type Description Obligatoire Default
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Oui
access_token string Le jeton d’accès à utiliser pour l’authentification. Non

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Les options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par le système.

Nom Type Description Obligatoire Default
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Oui

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Les options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par l’utilisateur.

Nom Type Description Obligatoire Default
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Oui
managed_identity_resource_id string ID de ressource de l’identité managée affectée par l’utilisateur à utiliser pour l’authentification. Non

onYourDataUsernameAndPasswordAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe.

Nom Type Description Obligatoire Default
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Oui
username string Nom d’utilisateur à utiliser pour l’authentification. Non
mot de passe string Mot de passe. à utiliser pour l’authentification. Non

onYourDataVectorizationSource

Une représentation abstraite d’une source de vectorisation pour Azure OpenAI sur vos données avec la recherche vectorielle.

Nom Type Description Obligatoire Default
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec
la recherche vectorielle.
Oui

onYourDataVectorizationSourceType

Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle.

Description : représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec
la recherche vectorielle.

Type : string

Par défaut :

Nom de l’énumération : OnYourDataVectorizationSourceType

Valeurs d’énumération :

Valeur Description
endpoint Représente la vectorisation effectuée par les appels de service public à un modèle d’incorporation Azure OpenAI.
deployment_name Représente un nom de modèle de déploiement Ada à utiliser. Ce modèle de déploiement doit se trouver dans la même ressource Azure OpenAI, mais
sur vos données utilisera ce modèle de déploiement via un appel interne plutôt qu’un appel public, ce qui active la
recherche vectorielle même dans des réseaux privés.
integrated Représente le vectoriseur intégré défini dans la ressource de recherche.
model_id Représente un ID de modèle d’incorporation spécifique tel que défini dans le service de recherche.
Actuellement pris en charge uniquement par Elasticsearch®.

onYourDataEndpointVectorizationSource

Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un appel de point de terminaison Azure OpenAI pour les incorporations.

Nom Type Description Obligatoire Default
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec
la recherche vectorielle.
Oui
endpoint string Spécifie l'URL du point de terminaison de la ressource à partir duquel les éléments intégrés doivent être récupérés. Il doit être au format https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Le paramètre de requête api-version n’est pas autorisée. Non
authentication onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions Non
dimensions entier Le nombre de dimensions que les incorporations doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs. Non

onYourDataDeploymentNameVectorizationSource

Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un nom de modèle de déploiement d’incorporation interne dans la même ressource Azure OpenAI.

Nom Type Description Obligatoire Default
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec
la recherche vectorielle.
Oui
deployment_name string Spécifie le nom du modèle de déploiement à utiliser pour la vectorisation. Ce déploiement de modèle doit se trouver dans la même ressource Azure OpenAI, mais sur vos données utilise ce modèle de déploiement via un appel interne plutôt qu’un appel public, ce qui permet la recherche vectorielle même dans des réseaux privés. Non
dimensions entier Le nombre de dimensions que les incorporations doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs. Non

onYourDataIntegratedVectorizationSource

Représente le vectoriseur intégré défini dans la ressource de recherche.

Nom Type Description Obligatoire Default
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec
la recherche vectorielle.
Oui

onYourDataModelIdVectorizationSource

Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un ID de modèle de service de recherche. Actuellement pris en charge uniquement par Elasticsearch®.

Nom Type Description Obligatoire Default
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec
la recherche vectorielle.
Oui
model_id string Spécifie l’ID de modèle à utiliser pour la vectorisation. Cet ID de modèle doit être défini dans le service de recherche. Non

azureChatExtensionsMessageContext

Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvements de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante.

Nom Type Description Obligatoire Par défaut
citations tableau Résultat de récupération de la source de données, utilisé pour générer le message assistant dans la réponse. Non
intention string Intention détectée à partir de l’historique de conversation, utilisée pour passer au prochain tour afin de reporter le contexte. Non
all_retrieved_documents tableau Tous les documents récupérés. Non

citation

informations de citation pour un message de réponse des saisies semi-automatiques de conversation.

Nom Type Description Obligatoire Par défaut
content string Contenu de la citation. Oui
title string Titre de la citation. Non
url string URL de la citation. Non
filepath string Chemin d’accès au fichier de la citation. Non
chunk_id string ID de bloc de la citation. Non
rerank_score nombre Le score de reclassement du document récupéré. Non

retrievedDocument

Le document récupéré.

Nom Type Description Obligatoire Par défaut
content string Contenu de la citation. Oui
title string Titre de la citation. Non
url string URL de la citation. Non
filepath string Chemin d’accès au fichier de la citation. Non
chunk_id string ID de bloc de la citation. Non
rerank_score nombre Le score de reclassement du document récupéré. Non
search_queries tableau Ls requêtes de recherche utilisées pour récupérer le document. Non
data_source_index entier L’index de la source de données. Non
original_search_score nombre Le score de recherche d’origine du document récupéré. Non
filter_reason filterReason La raison de filtrage du document récupéré. Non

filterReason

La raison de filtrage du document récupéré.

Description : la raison de filtrage du document récupéré.

Type : string

Par défaut :

Nom de l’énumération : FilterReason

Valeurs d’énumération :

Valeur Description
score Le document est filtré par le seuil de score de recherche d’origine défini par la configuration de strictness.
reclassement Le document n’est pas filtré par le seuil du score de recherche d’origine, mais est filtré par le score de reclassement et la configuration de top_n_documents.

chatCompletionMessageToolCall

Nom Type Description Obligatoire Default
id string ID de l’appel de l’outil. Oui
type toolCallType Le type de l’appel d’outil, dans ce cas function. Oui
function object Fonction appelée par le modèle. Oui

Propriétés de la fonction

name

Nom Type Description Default
name chaîne Nom de la fonction à appeler.

arguments

Nom Type Description Default
arguments string Arguments à utiliser pour appeler la fonction, tels qu’ils sont générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction.

toolCallType

Le type de l’appel d’outil, dans ce cas function.

Description : le type de l’appel d’outil, dans ce cas function.

Type : string

Par défaut :

Nom de l’énumération : ToolCallType

Valeurs d’énumération :

Valeur Description
function Le type de l’appel d’outil est fonction.

chatCompletionRequestMessageTool

Nom Type Description Obligatoire Par défaut
tool_call_id string Appel d’outil auquel ce message répond. Non
content string Contenu du message. Non

chatCompletionRequestMessageFunction

Nom Type Description Obligatoire Par défaut
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas function.
Valeurs possibles : fonction
Non
nom chaîne Contenu du message. Non
content string Contenu du message. Non

createChatCompletionResponse

Représente une réponse de complétion de conversation retournée par le modèle, en fonction de l’entrée fournie.

Nom Type Description Obligatoire Default
id string Identificateur unique de la complétion de conversation. Oui
prompt_filter_results promptFilterResults Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. Non
options tableau Liste des choix de saisie semi-automatique de conversation. Peut être plusieurs si n est supérieur à 1. Oui
created entier Horodatage Unix (en secondes) de la création de la complétion de conversation. Oui
modèle string Modèle utilisé pour la complétion de conversation. Oui
system_fingerprint string Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute.

Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end.
Non
object enum Le type d’objet, qui est toujours chat.completion.
Valeurs possibles : chat.completion
Oui
utilisation completionUsage Statistiques d’utilisation pour la demande d’achèvement. Non

createChatCompletionStreamResponse

Représente un bloc diffusé en continu d’une réponse de complétion de conversation retournée par le modèle, en fonction de l’entrée fournie.

Nom Type Description Obligatoire Default
id string Identificateur unique de la complétion de conversation. Chaque bloc a le même ID. Oui
options tableau Liste des choix de saisie semi-automatique de conversation. Peut contenir plusieurs éléments si n est supérieur à 1.
Oui
created entier Horodatage Unix (en secondes) de la création de la complétion de conversation. Chaque bloc a le même timestamp. Oui
modèle string Modèle utilisé pour générer la complétion. Oui
system_fingerprint string Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute.
Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end.
Non
object enum Le type d’objet, qui est toujours chat.completion.chunk.
Valeurs possibles : chat.completion.chunk
Oui

chatCompletionStreamResponseDelta

Delta de complétion de conversation généré par les réponses de modèle diffusées en continu.

Nom Type Description Obligatoire Par défaut
content string Contenu du message de bloc. Non
function_call object Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. Non
tool_calls tableau Non
role enum Rôle de l’auteur de ce message.
Valeurs possibles : system, user, assistant, tool
Non
refusal string Message de refus généré par le modèle. Non

Propriétés pour function_call

arguments

Nom Type Description Default
arguments string Arguments à utiliser pour appeler la fonction, tels qu’ils sont générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction.

name

Nom Type Description Default
name chaîne Nom de la fonction à appeler.

chatCompletionMessageToolCallChunk

Nom Type Description Obligatoire Par défaut
index entier Oui
id string ID de l’appel de l’outil. Non
type enum Type de l'outil. Actuellement, seul function est pris en charge.
Valeurs possibles : fonction
Non
function object Non

Propriétés de la fonction

name

Nom Type Description Default
name chaîne Nom de la fonction à appeler.

arguments

Nom Type Description Default
arguments string Arguments à utiliser pour appeler la fonction, tels qu’ils sont générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction.

chatCompletionStreamOptions

Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.

Nom Type Description Obligatoire Par défaut
include_usage booléen Si cette option est définie, un bloc supplémentaire est diffusé en continu avant le message data: [DONE]. Le champ usage de ce bloc affiche les statistiques d’utilisation des jetons pour l’ensemble de la requête, et le champ choices sera toujours un tableau vide. Tous les autres blocs incluent également un champ usage, mais avec une valeur Null.
Non

chatCompletionChoiceLogProbs

Informations de probabilité logarithmique pour le choix.

Nom Type Description Obligatoire Par défaut
content tableau Une liste des jetons de contenu de message avec des informations de probabilité logarithmique. Oui
refusal tableau Liste des jetons de refus de message avec des informations de probabilité logarithmique. Non

chatCompletionTokenLogprob

Nom Type Description Obligatoire Par défaut
token string Jeton. Oui
logprob nombre La probabilité logarithmique de ce jeton. Oui
octets tableau Une liste d’entiers pour la représentation en octets UTF-8 du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations en octets doivent être combinées pour générer la représentation textuelle correcte. Peut être null s’il n’y a pas de représentation en octets pour le jeton. Oui
top_logprobs tableau Liste des jetons les plus probables et de leur probabilité logarithmique, à cette position de jeton. Dans de rares cas, il peut y avoir moins que le nombre de top_logprobs demandées retournées. Oui

chatCompletionResponseMessage

Message de complétion de conversation généré par le modèle.

Nom Type Description Obligatoire Par défaut
role chatCompletionResponseMessageRole Le rôle de l’auteur du message de réponse. Oui
refusal string Message de refus généré par le modèle. Oui
content string Contenu du message. Oui
tool_calls tableau Appels d’outils générés par le modèle, par exemple les appels de fonction. Non
function_call chatCompletionFunctionCall Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. Non
contexte azureChatExtensionsMessageContext Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées
dans la génération d’une réponse d’achèvement de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de
l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante.
Non

chatCompletionResponseMessageRole

Le rôle de l’auteur du message de réponse.

Description : le rôle de l’auteur(-trice) du message de réponse.

Type : string

Par défaut :

Valeurs d’énumération :

  • assistant

chatCompletionToolChoiceOption

Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère un message à la place. auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si des outils sont présents.

Ce composant peut être l’un des éléments suivants :

chatCompletionNamedToolChoice

Spécifie un outil que le modèle doit utiliser. Utilisez-le pour forcer le modèle à appeler une fonction spécifique.

Nom Type Description Obligatoire Default
type enum Type de l'outil. Actuellement, seul function est pris en charge.
Valeurs possibles : fonction
Oui
function object Oui

Propriétés de la fonction

name

Nom Type Description Default
name chaîne Nom de la fonction à appeler.

ParallelToolCalls

Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil.

Aucune propriété définie pour ce composant.

chatCompletionMessageToolCalls

Appels d’outils générés par le modèle, par exemple les appels de fonction.

Aucune propriété définie pour ce composant.

chatCompletionFunctionCall

Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle.

Nom Type Description Obligatoire Default
name chaîne Nom de la fonction à appeler. Oui
arguments string Arguments à utiliser pour appeler la fonction, tels qu’ils sont générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. Oui

completionUsage

Statistiques d’utilisation pour la demande d’achèvement.

Nom Type Description Obligatoire Par défaut
prompt_tokens entier Nombre de jetons dans l’invite. Oui
completion_tokens entier Nombre de jetons dans la complétion générée. Oui
total_tokens entier Nombre total de jetons utilisés dans la requête (prompt + complétion). Oui
prompt_tokens_details object Détails de jetons de requête. Non
completion_tokens_details object Répartition des jetons utilisés dans une saisie semi-automatique. Non

Propriétés de prompt_tokens_details

cached_tokens

Nom Type Description Default
cached_tokens entier Nombre de jetons de requête mis en cache.

Propriétés de completion_tokens_details

reasoning_tokens

Nom Type Description Default
reasoning_tokens entier Jetons générés par le modèle pour le raisonnement.

chatCompletionTool

Nom Type Description Obligatoire Default
type enum Type de l'outil. Actuellement, seul function est pris en charge.
Valeurs possibles : fonction
Oui
function FunctionObject Oui

FunctionParameters

Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour découvrir des exemples, et consultez les informations de référence sur le schéma JSON pour obtenir la documentation sur le format.

L’omission de parameters définit une fonction avec une liste de paramètres vide.

Aucune propriété définie pour ce composant.

FunctionObject

Nom Type Description Obligatoire Default
description string Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. Non
nom chaîne Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. Oui
parameters FunctionParameters Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour découvrir des exemples et les informations de référence sur le schéma JSON pour obtenir la documentation sur le format.

L’omission de parameters définit une fonction avec une liste de paramètres vide.
Non
strict booléen Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de l’appel de fonction. Si la valeur est true, le modèle suit le schéma exact défini dans le champ parameters. Seul un sous-ensemble de schéma JSON est pris en charge lorsque strict est true. Non False

ResponseFormatText

Nom Type Description Obligatoire Default
type enum Type de format de réponse défini : text
Valeurs possibles : text
Oui

ResponseFormatJsonObject

Nom Type Description Obligatoire Default
type enum Type de format de réponse défini : json_object
Valeurs possibles : json_object
Oui

ResponseFormatJsonSchemaSchema

Schéma du format de réponse, décrit en tant qu’objet de schéma JSON.

Aucune propriété définie pour ce composant.

ResponseFormatJsonSchema

Nom Type Description Obligatoire Default
type enum Type de format de réponse défini : json_schema
Valeurs possibles : json_schema
Oui
json_schema object Oui

Propriétés pour json_schema

description

Nom Type Description Default
description string Description du rôle du format de réponse, qui permet au modèle de déterminer comment répondre dans le format.

name

Nom Type Description Default
name chaîne Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64.

schéma

Nom Type Description Default
schéma ResponseFormatJsonSchemaSchema Schéma du format de réponse, décrit en tant qu’objet de schéma JSON.

strict

Nom Type Description Default
strict booléen Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie. Si la valeur est true, le modèle suit toujours le schéma exact défini dans le champ schema. Seul un sous-ensemble de schéma JSON est pris en charge lorsque strict est true. False

chatCompletionChoiceCommon

Nom Type Description Obligatoire Par défaut
index entier Non
finish_reason string Non

createTranslationRequest

Requête de traduction.

Nom Type Description Obligatoire Par défaut
file string Le fichier audio à traduire. Oui
prompt string Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Le prompt doit être en anglais. Non
response_format audioResponseFormat Définit le format de la sortie. Non
température nombre Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. Non 0

audioResponse

Réponse de traduction ou de transcription lorsque response_format était json

Nom Type Description Obligatoire Par défaut
texte string Texte traduit ou transcrit. Oui

audioVerboseResponse

Réponse de traduction ou de transcription lorsque response_format était verbose_json

Nom Type Description Obligatoire Par défaut
texte string Texte traduit ou transcrit. Oui
tâche string Type de tâche audio. Non
langage string Langue. Non
durée nombre Duration. Non
segments tableau Non
words tableau Non

audioResponseFormat

Définit le format de la sortie.

Description : définit le format de la sortie.

Type : string

Par défaut :

Valeurs d’énumération :

  • json
  • texte
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

Requête de transcription.

Nom Type Description Obligatoire Par défaut
file string L’objet de fichier audio à transcrire. Oui
prompt string Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. Non
response_format audioResponseFormat Définit le format de la sortie. Non
température nombre Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. Non 0
langage string La langue de l’audio d’entrée. Donner la langue d’entrée au format ISO-639-1 améliore la précision et la latence. Non
timestamp_granularities[] tableau Les granularités d’horodatage à remplir pour cette transcription. response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : word ou segment. Remarque : il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. Non ['segment']

audioSegment

Segment de transcription ou de traduction.

Nom Type Description Obligatoire Default
id entier Identificateur de segment. Non
chercher nombre Décalage du segment. Non
start nombre Décalage de début du segment. Non
end nombre Décalage de fin de segment. Non
texte string Texte du segment. Non
jetons tableau Jetons du texte. Non
température nombre Température. Non
avg_logprob nombre Probabilité logarithmique moyenne. Non
compression_ratio nombre Taux de compression. Non
no_speech_prob nombre Probabilité de « no speech ». Non

audioWord

Mot de transcription ou de traduction.

Nom Type Description Obligatoire Par défaut
word string Word Non
start nombre Décalage de début du mot. Non
end nombre Décalage de fin du mot. Non

createSpeechRequest

Demande de voix.

Nom Type Description Obligatoire Par défaut
entrée string Le texte pour lequel synthétiser l’audio. La longueur maximale est de 4096 caractères. Oui
voice enum La voix à utiliser pour la synthèse vocale.
Valeurs possibles : alloy, echo, fable, onyx, nova, shimmer
Oui
response_format enum Le format dans lequel synthétiser l’audio.
Valeurs possibles : mp3, opus, aac, flac, wav, pcm
Non
speed nombre La vitesse de l’audio synthétisé. Sélectionnez une valeur entre 0.25 et 4.0. 1.0 est la valeur par défaut. Non 1.0

imageQuality

La qualité de l’image qui sera générée.

Description : la qualité de l’image qui sera générée.

Type : string

Valeur par défaut : standard

Nom de l’énumération : Quality

Valeurs d’énumération :

Valeur Description
standard La qualité standard crée des images avec une qualité standard.
hd La qualité HD crée des images avec des détails plus fins et une plus grande cohérence dans l’image.

imagesResponseFormat

Format dans lequel les images générées sont retournées.

Description : le format dans lequel les images générées sont retournées.

Type : string

Valeur par défaut : url

Nom de l’énumération : ImagesResponseFormat

Valeurs d’énumération :

Valeur Description
url L’URL qui fournit un accès temporaire pour télécharger les images générées.
b64_json Les images générées sont retournées sous forme de chaîne encodée en base64.

imageSize

Taille des images générées.

Description : la taille des images générées.

Type : string

Valeur par défaut : 1024x1024

Nom de l’énumération : Size

Valeurs d’énumération :

Valeur Description
256 x 256 La taille souhaitée de l’image générée est de 256 x 256 pixels. Uniquement prise en charge pour dall-e-2.
512 x 512 La taille souhaitée de l’image générée est de 512 x 512 pixels. Uniquement prise en charge pour dall-e-2.
1792x1024 La taille souhaitée de l’image générée est de 1792 x 1024 pixels. Uniquement prise en charge pour dall-e-3.
1024x1792 La taille souhaitée de l’image générée est de 1024 x 1792 pixels. Uniquement prise en charge pour dall-e-3.
1024 x 1024 La taille souhaitée de l’image générée est de 1024 x 1024 pixels.

imageStyle

Le style des images générées.

Description : le style des images générées.

Type : string

Valeur par défaut : vivid

Nom de l’énumération : Style

Valeurs d’énumération :

Valeur Description
vif Vivid crée des images hyper réalistes et dramatiques.
naturel Natural crée des images qui sont plus naturelles et moins hyper réalistes.

imageGenerationsRequest

Nom Type Description Obligatoire Par défaut
prompt string Description textuelle de la ou des images souhaitées. La longueur maximale est de 4 000 caractères. Oui
n entier Nombre d’images à générer. Non 1
size imageSize Taille des images générées. Non 1024 x 1024
response_format imagesResponseFormat Format dans lequel les images générées sont retournées. Non url
utilisateur string Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. Non
des données imageQuality La qualité de l’image qui sera générée. Non standard
style imageStyle Le style des images générées. Non vif

generateImagesResponse

Nom Type Description Obligatoire Par défaut
created entier Le timestamp unix lors de la création de l’opération. Oui
données tableau Les données de résultat de l’opération, en cas de réussite Oui

imageResult

L’URL de l’image ou l’image encodée en cas de réussite et une erreur dans le cas contraire.

Nom Type Description Obligatoire Default
url string L’URL de l’image. Non
b64_json string L’image encodée en base64 Non
content_filter_results dalleContentFilterResults Informations sur les résultats du filtrage de contenu. Non
revised_prompt string Le prompt utilisé pour générer l’image, s’il y a eu une révision de l’invite. Non
prompt_filter_results dalleFilterResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. Non

line

Un objet de ligne de contenu constitué d’une séquence adjacente d’éléments de contenu, tels que des mots et des marques de sélection.

Nom Type Description Obligatoire Par défaut
texte string Oui
spans tableau Un tableau d’étendues qui représentent les objets détectés et leurs informations de cadre englobant. Oui

étendue

Un objet d’étendue qui représente un objet détecté et ses informations de cadre englobant.

Nom Type Description Obligatoire Par défaut
texte string Le contenu texte de l’étendue qui représente l’objet détecté. Oui
offset entier Le décalage de caractère dans le texte où l’étendue commence. Ce décalage est défini comme la position du premier caractère de l’étendue, en comptant à partir du début du texte en tant que points de code Unicode. Oui
length entier La longueur de l’étendue en caractères, mesurée en points de code Unicode. Oui
polygon tableau Un tableau d’objets représentant des points dans le polygone qui entoure l’objet détecté. Oui

runCompletionUsage

Statistiques d’utilisation relatives à l’exécution. Cette valeur sera null si l’exécution n’est pas dans un état terminal (c’est-à-dire in_progress, queued, etc.).

Nom Type Description Obligatoire Par défaut
completion_tokens entier Nombre de jetons d’achèvement utilisés au cours de l’exécution. Oui
prompt_tokens entier Nombre de jetons de prompt utilisés au cours de l’exécution. Oui
total_tokens entier Nombre total de jetons utilisés (prompt + achèvement). Oui

runStepCompletionUsage

Statistiques d’utilisation relatives à l’étape d’exécution. Cette valeur sera null pendant que l’état de l’étape d’exécution est in_progress.

Nom Type Description Obligatoire Par défaut
completion_tokens entier Nombre de jetons d’achèvement utilisés au cours de l’étape d’exécution. Oui
prompt_tokens entier Nombre de jetons de prompt utilisés au cours de l’étape d’exécution. Oui
total_tokens entier Nombre total de jetons utilisés (prompt + achèvement). Oui

assistantsApiResponseFormatOption

Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.

Ce composant peut être l’un des éléments suivants :

assistantsApiResponseFormat

Un objet décrivant la sortie attendue du modèle. Si json_object, seul les types de function tools sont autorisés à être passés à l’exécution. Si text, le modèle peut retourner du texte ou n’importe quelle valeur nécessaire.

Nom Type Description Obligatoire Default
type string Doit être text ou json_object. Non texte

Énumération de type : AssistantsApiResponseFormat

Valeur Description
texte
json_object

assistantObject

Représente un assistant qui peut appeler le modèle et utiliser des outils.

Nom Type Description Obligatoire Default
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Oui
object string Le type d’objet, qui est toujours assistant. Oui
created_at entier Horodatage Unix (en secondes) de la création de l’assistant. Oui
name chaîne Nom de l’assistant. La longueur maximale est de 256 caractères.
Oui
description string Description de l’assistant. La longueur maximale est de 512 caractères.
Oui
modèle string ID du modèle à utiliser. Vous pouvez utiliser l’API de génération d’une liste de modèles pour voir tous les modèles disponibles.
Oui
détaillées string Instructions système utilisées par l’assistant. La longueur maximale est de 256 000 caractères.
Oui
tools tableau Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, file_search ou function.
Oui []
tool_resources object Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Oui
température number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Non 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
Non 1
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non

Propriétés de tool_resources

code_interpreter

Nom Type Description Default
file_ids tableau Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
[]

file_search

Nom Type Description Default
vector_store_ids tableau L’ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant.

Énumération d’objet : AssistantObjectType

Valeur Description
assistant Le type d’objet, qui est toujours Assistant

createAssistantRequest

Nom Type Description Obligatoire Par défaut
modèle Oui
name chaîne Nom de l’assistant. La longueur maximale est de 256 caractères.
Non
description string Description de l’assistant. La longueur maximale est de 512 caractères.
Non
détaillées string Instructions système utilisées par l’assistant. La longueur maximale est de 256 000 caractères.
Non
tools tableau Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval ou function.
Non []
tool_resources object Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non
température number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Non 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
Non 1
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non

Propriétés de tool_resources

code_interpreter

Nom Type Description Default
file_ids tableau Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
[]

file_search

Nom Type Description Default
vector_store_ids tableau Le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant.
vector_stores tableau Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant.

modifyAssistantRequest

Nom Type Description Obligatoire Par défaut
modèle Non
nom chaîne Nom de l’assistant. La longueur maximale est de 256 caractères.
Non
description string Description de l’assistant. La longueur maximale est de 512 caractères.
Non
détaillées string Instructions système utilisées par l’assistant. La longueur maximale est de 32 768 caractères.
Non
tools tableau Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval ou function.
Non []
tool_resources object Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non
température number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Non 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
Non 1
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non

Propriétés de tool_resources

code_interpreter

Nom Type Description Default
file_ids tableau Remplace la liste des ID de fichiers mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
[]

file_search

Nom Type Description Default
vector_store_ids tableau Remplace le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant.

deleteAssistantResponse

Nom Type Description Obligatoire Default
id string Oui
deleted booléen Oui
object string Oui

Énumération d’objet : DeleteAssistantResponseState

Valeur Description
assistant.deleted

listAssistantsResponse

Nom Type Description Obligatoire Par défaut
object string Oui
données tableau Oui
first_id string Oui
last_id string Oui
has_more booléen Oui

assistantToolsCode

Nom Type Description Obligatoire Default
type string Le type d’outil défini : code_interpreter Oui

Énumération de type : assistantToolsCodeType

Valeur Description
code_interpreter

assistantToolsFileSearch

Nom Type Description Obligatoire Default
type string Le type d’outil défini : file_search Oui
file_search object Remplace pour l’outil de recherche de fichiers. Non

max_num_results

Nom Type Description Default
max_num_results entier Nombre maximal de résultats que l’outil de recherche de fichiers doit générer. La valeur par défaut est 20 pour les modèles gpt-4* et 5 pour les modèles gpt-3.5-turbo. Ce nombre doit être compris entre 1 et 50 inclus.

Notez que l’outil de recherche de fichiers peut générer moins de max_num_results résultats.

Énumération de type : assistantToolsFileSearchType

Valeur Description
file_search

assistantToolsFileSearchTypeOnly

Nom Type Description Obligatoire Default
type string Le type d’outil défini : file_search Oui

Énumération de type : assistantToolsFileSearchType

Valeur Description
file_search

assistantToolsFunction

Nom Type Description Obligatoire Default
type string Le type d’outil défini : function Oui
function object Définition de fonction. Oui

Propriétés de la fonction

description

Nom Type Description Default
description string Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction.

name

Nom Type Description Default
name chaîne Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64.

parameters

Nom Type Description Default
parameters chatCompletionFunctionParameters Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour découvrir des exemples et les informations de référence sur le schéma JSON pour obtenir la documentation sur le format.

Énumération de type : assistantToolsFunction

Valeur Description
function

truncationObject

Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution.

Nom Type Description Obligatoire Default
type string La stratégie de troncation à utiliser pour le thread. Par défaut, il s’agit de auto. Si la valeur est définie sur last_messages, le thread est tronqué sur les n messages les plus récents dans le thread. Lorsque la valeur est définie sur auto, les messages au milieu du thread sont supprimés pour ajuster la longueur du contexte du modèle, max_prompt_tokens. Oui
last_messages entier Le nombre de messages les plus récents du thread lors de la construction du contexte de l’exécution. Non

Énumération de type : TruncationType

Valeur Description
auto
last_messages

assistantsApiToolChoiceOption

Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outils et génère un message à la place. auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil. La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.

Ce composant peut être l’un des éléments suivants :

assistantsNamedToolChoice

Spécifie un outil que le modèle doit utiliser. Utilisez-le pour forcer le modèle à appeler un outil spécifique.

Nom Type Description Obligatoire Default
type string Type de l'outil. Si le type est function, le nom de la fonction doit être défini Oui
function object Non

Propriétés de la fonction

name

Nom Type Description Default
name chaîne Nom de la fonction à appeler.

Énumération de type : AssistantsNamedToolChoiceType

Valeur Description
function
code_interpreter
file_search

runObject

Représente une exécution sur un thread.

Nom Type Description Obligatoire Default
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Oui
object string Le type d’objet, qui est toujours thread.run. Oui
created_at entier Horodatage Unix (en secondes) de la création de l’exécution. Oui
thread_id string ID du thread qui a été exécuté dans le cadre de cette exécution. Oui
assistant_id string ID de l’assistant utilisé pour cette exécution. Oui
statut string État de l’exécution, qui peut être queued, in_progress, requires_action, cancelling, cancelled, failed, completed ou expired. Oui
required_action object Détails de l’action requise pour poursuivre l’exécution. Est null si aucune action n’est requise. Oui
last_error object Dernière erreur associée à cette exécution. Est null en l’absence d’erreurs. Oui
expires_at entier Horodatage Unix (en secondes) de l’expiration de l’exécution. Oui
started_at entier Horodatage Unix (en secondes) du démarrage de l’exécution. Oui
cancelled_at entier Le timestamp Unix (en secondes) lorsque l’exécution a été annulée. Oui
failed_at entier Horodatage Unix (en secondes) de l’échec de l’exécution. Oui
completed_at entier Horodatage Unix (en secondes) de la fin de l’exécution. Oui
incomplete_details object Détails sur la raison pour laquelle l’exécution est incomplète. Est null si l’exécution n’est pas incomplète. Oui
modèle string Le modèle utilisé par l’Assistant pour cette exécution. Oui
détaillées string Instructions utilisées par l’assistant pour cette exécution. Oui
tools tableau Liste des outils utilisés par l’assistant pour cette exécution. Oui []
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Oui
utilisation runCompletionUsage Statistiques d’utilisation relatives à l’exécution. Cette valeur sera null si l’exécution n’est pas dans un état terminal (c’est-à-dire in_progress, queued, etc.). Oui
température nombre La température d’échantillonnage utilisée pour cette exécution. Si elle n’est pas définie, la valeur par défaut est 1. Non
top_p nombre La valeur d’échantillonnage du noyau utilisée pour cette exécution. Si elle n’est pas définie, la valeur par défaut est 1. Non
max_prompt_tokens entier Nombre maximal de jetons de prompt spécifiés comme ayant été utilisés au cours de l’exécution.
Oui
max_completion_tokens entier Nombre maximal de jetons de saisie semi-automatique spécifiés comme ayant été utilisés au cours de l’exécution.
Oui
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. Oui
tool_choice assistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère un message à la place.
auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Oui
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Non True
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Oui

Propriétés de required_action

type

Nom Type Description Default
type string Pour l’instant, c’est toujours submit_tool_outputs.

submit_tool_outputs

Nom Type Description Default
tool_calls tableau Une liste des appels d’outil pertinents.

Propriétés de last_error

code

Nom Type Description Default
code string Un de server_error ou rate_limit_exceeded.

message

Nom Type Description Default
message string Une description de l’erreur à l’intention des utilisateurs.

Propriétés de incomplete_details

reason

Nom Type Description Default
reason string La raison pour laquelle l’exécution est incomplète. Cela pointe vers quelle limite de jeton spécifique a été atteinte au cours de l’exécution.

Énumération d’objet : runObjectType

Valeur Description
thread.run Le type d’objet, qui est toujours thread.run

Énumération d’état : RunObjectStatus

Valeur Description
queued L’état de mise en file d’attente
in_progress L’état in_progress
requires_action L’état required_action
cancelling L’état d’annulation
annulé L’état annulé
échec L’état d’échec
terminé L’état terminé.
expiré L’état expiré

createRunRequest

Nom Type Description Obligatoire Par défaut
assistant_id string ID de l’assistant à utiliser pour cette exécution. Oui
modèle string L’ID de déploiement du Modèle à utiliser pour cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. Non
détaillées string Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. Non
additional_instructions string Ajoute des instructions supplémentaires à la fin des instructions de l’exécution. Cela est utile pour modifier le comportement lors de chaque exécution sans remplacer d’autres instructions. Non
additional_messages tableau Ajoute des messages supplémentaires au thread avant de créer l’exécution. Non
tools tableau Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non
température number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Non 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
Non 1
flux booléen Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE].
Non
max_prompt_tokens entier Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
Non
max_completion_tokens entier Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
Non
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. Non
tool_choice assistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère un message à la place.
auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Non
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Non True
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non

listRunsResponse

Nom Type Description Obligatoire Par défaut
object string Oui
données tableau Oui
first_id string Oui
last_id string Oui
has_more booléen Oui

modifyRunRequest

Nom Type Description Obligatoire Par défaut
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non

submitToolOutputsRunRequest

Nom Type Description Obligatoire Par défaut
tool_outputs tableau Liste des outils pour lesquels les sorties sont envoyées. Oui
flux booléen Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE].
Non

runToolCallObject

Objets d’appel d’outil

Nom Type Description Obligatoire Default
id string ID de l’appel de l’outil. Cet ID doit être référencé lorsque vous envoyez les résultats de l’outil en utilisant les résultats de l’outil Envoyer pour exécuter un point de terminaison. Oui
type string Type d’appel d’outil pour lequel la sortie est requise. Pour l’instant, c’est toujours function. Oui
function object Définition de fonction. Oui

Propriétés de la fonction

name

Nom Type Description Default
name chaîne Nom de la fonction.

arguments

Nom Type Description Default
arguments string Les arguments que le modèle attend à ce que vous passiez à la fonction.

Énumération de type : RunToolCallObjectType

Valeur Description
function

createThreadAndRunRequest

Nom Type Description Obligatoire Par défaut
assistant_id string ID de l’assistant à utiliser pour cette exécution. Oui
thread createThreadRequest Non
modèle string Nom de déploiement du modèle à utiliser pour cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. Non
détaillées string Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. Non
tools tableau Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. Non
tool_resources object Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non
température number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Non 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
Non 1
flux booléen Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE].
Non
stream_options chatCompletionStreamOptions Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
Non Aucune
max_prompt_tokens entier Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
Non
max_completion_tokens entier Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
Non
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. Non
tool_choice assistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère un message à la place.
auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Non
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Non True
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non

Propriétés de tool_resources

code_interpreter

Nom Type Description Default
file_ids tableau Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
[]

file_search

Nom Type Description Default
vector_store_ids tableau L’ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant.

threadObject

Représente un thread qui contient des messages.

Nom Type Description Obligatoire Default
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Oui
object string Le type d’objet, qui est toujours thread. Oui
created_at entier L'horodatage Unix (en secondes) de la création du thread. Oui
tool_resources object Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
Oui
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Oui

Propriétés de tool_resources

code_interpreter

Nom Type Description Default
file_ids tableau Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
[]

file_search

Nom Type Description Default
vector_store_ids tableau Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread.

Énumération d’objet : ThreadObjectType

Valeur Description
thread Le type d’objet de thread, qui est toujours thread

createThreadRequest

Nom Type Description Obligatoire Par défaut
Cloud vers appareil tableau Une liste de messages avec lesquels démarrer le fil de discussion. Non
tool_resources object Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non

Propriétés de tool_resources

code_interpreter

Nom Type Description Default
file_ids tableau Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
[]

file_search

Nom Type Description Default
vector_store_ids tableau Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread.
vector_stores tableau Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread.

modifyThreadRequest

Nom Type Description Obligatoire Par défaut
tool_resources object Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non

Propriétés de tool_resources

code_interpreter

Nom Type Description Default
file_ids tableau Une liste des ID de fichiers mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
[]

file_search

Nom Type Description Default
vector_store_ids tableau Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread.

deleteThreadResponse

Nom Type Description Obligatoire Default
id string Oui
deleted booléen Oui
object string Oui

Énumération d’objet : DeleteThreadResponseObjectState

Valeur Description
thread.deleted État de l’objet de réponse du thread de suppression, à savoir thread.deleted.

listThreadsResponse

Nom Type Description Obligatoire Par défaut
object string Oui
données tableau Oui
first_id string Oui
last_id string Oui
has_more booléen Oui

messageObject

Représente un message dans un thread.

Nom Type Description Obligatoire Default
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Oui
object string Le type d’objet, qui est toujours thread.message. Oui
created_at entier Horodatage Unix (en secondes) de création du message. Oui
thread_id string ID de thread auquel ce message appartient. Oui
statut string L’état du message, qui peut être in_progress, incomplete ou completed. Oui
incomplete_details object Sur un message incomplet, détails sur la raison pour laquelle le message est incomplet. Oui
completed_at entier Le timestamp Unix (en secondes) lorsque le message s’est terminé. Oui
incomplete_at entier Le timestamp Unix (en secondes) lorsque le message a été marqué comme incomplet. Oui
role string Entité ayant produit le message. Un de user ou assistant. Oui
content tableau Contenu du message dans le tableau de texte et/ou d’images. Oui
assistant_id string Le cas échéant, ID de l’assistant qui a créé ce message. Oui
run_id string Le cas échéant, ID de l’exécution associée à la création de ce message. Oui
attachments tableau Une liste des fichiers attachés au message et les outils auxquels ils ont été ajoutés. Oui
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Oui

Propriétés de incomplete_details

reason

Nom Type Description Default
reason string La raison pour laquelle le message est incomplet.

Énumération d’objet : MessageObjectType

Valeur Description
thread.message Le type d’objet de message, qui est thread.message

Énumération d’état : MessageObjectStatus

Valeur Description
in_progress
incomplete
terminé

Énumération de rôle : MessageObjectRole

Valeur Description
utilisateur
assistant

messageDeltaObject

Représente un delta de message, c’est-à-dire les champs modifiés d’un message pendant la diffusion en continu.

Nom Type Description Obligatoire Default
id string Identificateur du message qui peut être référencé dans les points de terminaison d’API. Oui
object string Le type d’objet, qui est toujours thread.message.delta. Oui
delta object Le delta contenant les champs qui ont été modifiés dans le message. Oui

Propriétés de delta

role

Nom Type Description Default
role string Entité ayant produit le message. Un de user ou assistant.

content

Nom Type Description Default
content tableau Contenu du message dans le tableau de texte et/ou d’images.

Énumération d’objet : MessageDeltaObjectType

Valeur Description
thread.message.delta

createMessageRequest

Nom Type Description Obligatoire Par défaut
role string Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes :
- user : indique l’envoi du message par un utilisateur réel, doit être utilisé dans la plupart des cas pour représenter des messages générés par l’utilisateur.
- assistant : indique la génération du message par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation.
Oui
content string Contenu du message. Oui
attachments tableau Une liste des fichiers attachés au message et des outils auxquels ils doivent être ajoutés. Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non

Énumération de rôle : CreateMessageRequestRole

Valeur Description
utilisateur
assistant

modifyMessageRequest

Nom Type Description Obligatoire Par défaut
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non

deleteMessageResponse

Nom Type Description Obligatoire Default
id string Oui
deleted booléen Oui
object string Oui

Énumération d’objet : DeleteMessageResponseObject

Valeur Description
thread.message.deleted État de l’objet de réponse du message de suppression

listMessagesResponse

Nom Type Description Obligatoire Par défaut
object string Oui
données tableau Oui
first_id string Oui
last_id string Oui
has_more booléen Oui

messageContentImageFileObject

Fait référence à un fichier image dans le contenu d’un message.

Nom Type Description Obligatoire Default
type string Toujours image_file. Oui
image_file object Oui

Propriétés de image_file

file_id

Nom Type Description Default
file_id string L’ID de fichier de l’image dans le contenu du message.

Énumération de type : MessageContentImageFileObjectType

Valeur Description
image_file Le type de fichier image de contenu du message

messageContentTextObject

Le contenu texte qui fait partie d’un message.

Nom Type Description Obligatoire Default
type string Toujours text. Oui
texte object Oui

Propriétés de text

valeur

Nom Type Description Default
value string Les données qui composent le texte.

annotations

Nom Type Description Default
annotations tableau

Énumération de type : messageContentTextObjectType

Valeur Description
texte Le type d’objet de texte de contenu du message

messageContentTextAnnotationsFileCitationObject

Une citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’Assistant ou au message. Généré lorsque l’Assistant utilise l’outil de « retrieval » pour rechercher des fichiers.

Nom Type Description Obligatoire Default
type string Toujours file_citation. Oui
texte string Le texte dans le contenu du message qui doit être remplacé. Oui
file_citation object Oui
start_index entier Oui
end_index entier Oui

Propriétés de file_citation

file_id

Nom Type Description Default
file_id string L’ID du fichier spécifique à partir duquel provient la citation.

Énumération de type : FileCitationObjectType

Valeur Description
file_citation Le type d’objet de citation de fichier

messageContentTextAnnotationsFilePathObject

Une URL du fichier généré lorsque l’Assistant a utilisé l’outil code_interpreter pour générer un fichier.

Nom Type Description Obligatoire Default
type string Toujours file_path. Oui
texte string Le texte dans le contenu du message qui doit être remplacé. Oui
file_path object Oui
start_index entier Oui
end_index entier Oui

Propriétés de file_path

file_id

Nom Type Description Default
file_id string L’ID du fichier généré.

Énumération de type : FilePathObjectType

Valeur Description
file_path Le type d’objet de chemin de fichier

messageDeltaContentImageFileObject

Fait référence à un fichier image dans le contenu d’un message.

Nom Type Description Obligatoire Par défaut
index entier L’index de la partie contenu dans le message. Oui
type string Toujours image_file. Oui
image_file object Non

Propriétés de image_file

file_id

Nom Type Description Default
file_id string L’ID de fichier de l’image dans le contenu du message.

Énumération de type : MessageDeltaContentImageFileObjectType

Valeur Description
image_file

messageDeltaContentTextObject

Le contenu texte qui fait partie d’un message.

Nom Type Description Obligatoire Par défaut
index entier L’index de la partie contenu dans le message. Oui
type string Toujours text. Oui
texte object Non

Propriétés de text

valeur

Nom Type Description Default
value string Les données qui composent le texte.

annotations

Nom Type Description Default
annotations tableau

Énumération de type : MessageDeltaContentTextObjectType

Valeur Description
texte

messageDeltaContentTextAnnotationsFileCitationObject

Une citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’Assistant ou au message. Généré lorsque l’Assistant utilise l’outil « file_search » pour rechercher des fichiers.

Nom Type Description Obligatoire Par défaut
index entier L’index de l’annotation dans la partie contenu du texte. Oui
type string Toujours file_citation. Oui
texte string Le texte dans le contenu du message qui doit être remplacé. Non
file_citation object Non
start_index entier Non
end_index entier Non

Propriétés de file_citation

file_id

Nom Type Description Default
file_id string L’ID du fichier spécifique à partir duquel provient la citation.

quote

Nom Type Description Default
quote string La citation spécifique dans le fichier.

Énumération de type : MessageDeltaContentTextAnnotationsFileCitationObjectType

Valeur Description
file_citation

messageDeltaContentTextAnnotationsFilePathObject

Une URL du fichier généré lorsque l’Assistant a utilisé l’outil code_interpreter pour générer un fichier.

Nom Type Description Obligatoire Par défaut
index entier L’index de l’annotation dans la partie contenu du texte. Oui
type string Toujours file_path. Oui
texte string Le texte dans le contenu du message qui doit être remplacé. Non
file_path object Non
start_index entier Non
end_index entier Non

Propriétés de file_path

file_id

Nom Type Description Default
file_id string L’ID du fichier généré.

Énumération de type : MessageDeltaContentTextAnnotationsFilePathObjectType

Valeur Description
file_path

runStepObject

Représente une étape dans une exécution.

Nom Type Description Obligatoire Default
id string Identificateur de l’étape d’exécution qui peut être référencé dans les points de terminaison d’API. Oui
object string Le type d’objet, qui est toujours assistant.run.step. Oui
created_at entier Horodatage Unix (en secondes) pour la création de l’étape d’exécution. Oui
assistant_id string ID de l’assistant associé à l’étape d’exécution. Oui
thread_id string ID du thread qui a été exécuté. Oui
run_id string ID de l’exécution dont fait partie cette étape d’exécution. Oui
type string Le type d’étape d’exécution, qui peut être message_creation ou tool_calls. Oui
statut string L’état de l’exécution, qui peut être in_progress, cancelled, failed, completed ou expired. Oui
step_details runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject Détails de l’étape d’exécution. Oui
last_error object Dernière erreur associée à cette étape d’exécution. Est null en l’absence d’erreurs. Oui
expired_at entier Horodatage Unix (en secondes) de l’expiration de l’étape d’exécution. Une étape est considérée comme expirée si l’exécution parente a expiré. Oui
cancelled_at entier Horodatage Unix (en secondes) de l’annulation de l’étape d’exécution. Oui
failed_at entier Horodatage Unix (en secondes) de l’échec de l’étape d’exécution. Oui
completed_at entier L’horodatage Unix (en secondes) de la réalisation de l’étape d’exécution. Oui
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Oui

Propriétés de last_error

code

Nom Type Description Default
code string Un de server_error ou rate_limit_exceeded.

message

Nom Type Description Default
message string Une description de l’erreur à l’intention des utilisateurs.

Énumération d’objet : RunStepObjectType

Valeur Description
assistant.run.step Type d’objet, qui est toujours assistant.run.step

Énumération de type : RunStepObjectType

Valeur Description
message_creation L’étape d’exécution message_creation
tool_calls L’étape d’exécution tool_calls

Énumération d’état : RunStepObjectStatus

Valeur Description
in_progress L’état d’exécution in_progress
annulé L’état d’exécution cancelled
échec L’état d’exécution cancelled
terminé L’état d’exécution cancelled
expiré L’état d’exécution cancelled

runStepDeltaObject

Représente le delta d’une étape d’exécution, c’est-à-dire les champs modifiés d’une étape d’exécution pendant la diffusion en continu.

Nom Type Description Obligatoire Default
id string Identificateur de l’étape d’exécution qui peut être référencé dans les points de terminaison d’API. Oui
object string Le type d’objet, qui est toujours thread.run.step.delta. Oui
delta object Le delta contenant les champs qui ont été modifiés dans l’étape d’exécution. Oui

Propriétés de delta

step_details

Nom Type Description Default
step_details runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject Détails de l’étape d’exécution.

Énumération d’objet : RunStepDeltaObjectType

Valeur Description
thread.run.step.delta

listRunStepsResponse

Nom Type Description Obligatoire Par défaut
object string Oui
données tableau Oui
first_id string Oui
last_id string Oui
has_more booléen Oui

runStepDetailsMessageCreationObject

Détails de la création du message à l’étape d’exécution.

Nom Type Description Obligatoire Default
type string Toujours message_creation. Oui
message_creation object Oui

Propriétés de message_creation

message_id

Nom Type Description Default
message_id string L’ID du message créé à cette étape d’exécution.

Énumération de type : RunStepDetailsMessageCreationObjectType

Valeur Description
message_creation

runStepDeltaStepDetailsMessageCreationObject

Détails de la création du message à l’étape d’exécution.

Nom Type Description Obligatoire Default
type string Toujours message_creation. Oui
message_creation object Non

Propriétés de message_creation

message_id

Nom Type Description Default
message_id string L’ID du message créé à cette étape d’exécution.

Énumération de type : RunStepDeltaStepDetailsMessageCreationObjectType

Valeur Description
message_creation

runStepDetailsToolCallsObject

Détails de l’appel d’outil.

Nom Type Description Obligatoire Default
type string Toujours tool_calls. Oui
tool_calls tableau Un tableau d’appels d’outils dans lequel l’étape d’exécution était impliquée. Ils peuvent être associés à l’un des trois types d’outils : code_interpreter, retrieval ou function.
Oui

Énumération de type : RunStepDetailsToolCallsObjectType

Valeur Description
tool_calls

runStepDeltaStepDetailsToolCallsObject

Détails de l’appel d’outil.

Nom Type Description Obligatoire Default
type string Toujours tool_calls. Oui
tool_calls tableau Un tableau d’appels d’outils dans lequel l’étape d’exécution était impliquée. Ils peuvent être associés à l’un des trois types d’outils : code_interpreter, file_search ou function.
Non

Énumération de type : RunStepDeltaStepDetailsToolCallsObjectType

Valeur Description
tool_calls

runStepDetailsToolCallsCodeObject

Détails de l’appel de l’outil Interpréteur de code dans lequel l’étape d’exécution était impliquée.

Nom Type Description Obligatoire Default
id string ID de l’appel de l’outil. Oui
type string Le type d’appel d’outil. Cela va toujours être code_interpreter pour ce type d’appel d’outil. Oui
code_interpreter object La définition de l’appel de l’outil Interpréteur de code. Oui

Propriétés de code_interpreter

input

Nom Type Description Default
entrée string L’entrée de l’appel de l’outil Interpréteur de code.

outputs

Nom Type Description Default
outputs tableau Les sorties de l’appel de l’outil Interpréteur de code. L’interpréteur de code peut générer un ou plusieurs éléments, y compris du texte (logs) ou des images (image). Chacun d’eux est représenté par un type d’objet différent.

Énumération de type : RunStepDetailsToolCallsCodeObjectType

Valeur Description
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

Détails de l’appel de l’outil Interpréteur de code dans lequel l’étape d’exécution était impliquée.

Nom Type Description Obligatoire Par défaut
index entier L’index de l’appel d’outil dans le tableau d’appels d’outils. Oui
id string ID de l’appel de l’outil. Non
type string Le type d’appel d’outil. Cela va toujours être code_interpreter pour ce type d’appel d’outil. Oui
code_interpreter object La définition de l’appel de l’outil Interpréteur de code. Non

Propriétés de code_interpreter

input

Nom Type Description Default
entrée string L’entrée de l’appel de l’outil Interpréteur de code.

outputs

Nom Type Description Default
outputs tableau Les sorties de l’appel de l’outil Interpréteur de code. L’interpréteur de code peut générer un ou plusieurs éléments, y compris du texte (logs) ou des images (image). Chacun d’eux est représenté par un type d’objet différent.

Énumération de type : RunStepDeltaStepDetailsToolCallsCodeObjectType

Valeur Description
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

Sortie de texte de l’appel de l’outil Interpréteur de code dans le cadre d’une étape d’exécution.

Nom Type Description Obligatoire Default
type string Toujours logs. Oui
logs string La sortie de texte de l’appel de l’outil Interpréteur de code. Oui

Énumération de type : RunStepDetailsToolCallsCodeOutputLogsObjectType

Valeur Description
logs

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

Sortie de texte de l’appel de l’outil Interpréteur de code dans le cadre d’une étape d’exécution.

Nom Type Description Obligatoire Par défaut
index entier L’index de la sortie dans le tableau de sorties. Oui
type string Toujours logs. Oui
logs string La sortie de texte de l’appel de l’outil Interpréteur de code. Non

Énumération de type : RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType

Valeur Description
logs

runStepDetailsToolCallsCodeOutputImageObject

Nom Type Description Obligatoire Default
type string Toujours image. Oui
image object Oui

Propriétés de image

file_id

Nom Type Description Default
file_id string L’ID de fichier de l’image.

Énumération de type : RunStepDetailsToolCallsCodeOutputImageObjectType

Valeur Description
image

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Nom Type Description Obligatoire Par défaut
index entier L’index de la sortie dans le tableau de sorties. Oui
type string Toujours image. Oui
image object Non

Propriétés de image

file_id

Nom Type Description Default
file_id string L’ID de fichier de l’image.

Énumération de type : RunStepDeltaStepDetailsToolCallsCodeOutputImageObject

Valeur Description
image

runStepDetailsToolCallsFileSearchObject

Nom Type Description Obligatoire Default
id string L’ID de l’objet d’appel d’outil. Oui
type string Le type d’appel d’outil. Cela va toujours être file_search pour ce type d’appel d’outil. Oui
file_search object Pour l’instant, il s’agit toujours d’un objet vide. Oui

Énumération de type : RunStepDetailsToolCallsFileSearchObjectType

Valeur Description
file_search

runStepDeltaStepDetailsToolCallsFileSearchObject

Nom Type Description Obligatoire Par défaut
index entier L’index de l’appel d’outil dans le tableau d’appels d’outils. Oui
id string L’ID de l’objet d’appel d’outil. Non
type string Le type d’appel d’outil. Cela va toujours être retrieval pour ce type d’appel d’outil. Oui
file_search object Pour l’instant, il s’agit toujours d’un objet vide. Oui

Énumération de type : RunStepDeltaStepDetailsToolCallsFileSearchObjectType

Valeur Description
file_search

runStepDetailsToolCallsFunctionObject

Nom Type Description Obligatoire Default
id string L’ID de l’objet d’appel d’outil. Oui
type string Le type d’appel d’outil. Cela va toujours être function pour ce type d’appel d’outil. Oui
function object La définition de la fonction appelée. Oui

Propriétés de la fonction

name

Nom Type Description Default
name chaîne Nom de la fonction.

arguments

Nom Type Description Default
arguments string Arguments passés à la fonction.

output

Nom Type Description Default
output string La sortie de la fonction. Cela sera null si les sorties n’ont pas encore été envoyées.

Énumération de type : RunStepDetailsToolCallsFunctionObjectType

Valeur Description
function

runStepDeltaStepDetailsToolCallsFunctionObject

Nom Type Description Obligatoire Par défaut
index entier L’index de l’appel d’outil dans le tableau d’appels d’outils. Oui
id string L’ID de l’objet d’appel d’outil. Non
type string Le type d’appel d’outil. Cela va toujours être function pour ce type d’appel d’outil. Oui
function object La définition de la fonction appelée. Non

Propriétés de la fonction

name

Nom Type Description Default
name chaîne Nom de la fonction.

arguments

Nom Type Description Default
arguments string Arguments passés à la fonction.

output

Nom Type Description Default
output string La sortie de la fonction. Cela sera null si les sorties n’ont pas encore été envoyées.

Énumération de type : RunStepDetailsToolCallsFunctionObjectType

Valeur Description
function

vectorStoreExpirationAfter

La stratégie d’expiration d’un magasin de vecteurs.

Nom Type Description Obligatoire Par défaut
ancre string Le timestamp d’ancre après lequel la stratégie d’expiration s’applique. Ancres prises en charge : last_active_at. Oui
jours entier Le nombre de jours après l’heure d’ancre correspondant à l’expiration du magasin de vecteurs. Oui

Énumération d’ancre : VectorStoreExpirationAfterAnchor

Valeur Description
last_active_at Le timestamp d’ancre après lequel la stratégie d’expiration s’applique.

vectorStoreObject

Un magasin de vecteurs est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search.

Nom Type Description Obligatoire Default
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Oui
object enum Le type d’objet, qui est toujours vector_store.
Valeurs possibles : vector_store
Oui
created_at entier Le timestamp Unix (en secondes) lorsque le magasin de vecteurs a été créé. Oui
name chaîne Le nom du magasin de vecteurs. Oui
usage_bytes entier Le nombre total d’octets utilisés par les fichiers dans le magasin de vecteurs. Oui
file_counts object Oui
statut string L’état du magasin de vecteurs, qui peut être expired, in_progress ou completed. L’état completed indique que le magasin de vecteurs est prêt à être utilisé. Oui
expires_after vectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. Non
expires_at entier Le timestamp Unix (en secondes) lorsque le magasin de vecteurs expirera. Non
last_active_at entier Le timestamp Unix (en secondes) lorsque le magasin de vecteurs a été actif pour la dernière fois. Oui
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Oui

Propriétés de file_counts

in_progress

Nom Type Description Default
in_progress entier Le nombre de fichiers en cours de traitement.

terminé

Nom Type Description Default
terminé entier Le nombre de fichiers qui ont été traités avec succès.

échec

Nom Type Description Default
échec entier Le nombre de fichiers qui n’ont pas pu être traités.

annulé

Nom Type Description Default
annulé entier Le nombre de fichiers annulés.

total

Nom Type Description Default
total entier Le nombre total de fichiers.

Énumération d’état : VectorStoreObjectStatus

Valeur Description
expiré
in_progress
terminé

createVectorStoreRequest

Nom Type Description Obligatoire Par défaut
file_ids tableau Une liste des ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. Non
nom chaîne Le nom du magasin de vecteurs. Non
expires_after vectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. Non
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non

updateVectorStoreRequest

Nom Type Description Obligatoire Default
name chaîne Le nom du magasin de vecteurs. Non
expires_after vectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. Non
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Non

listVectorStoresResponse

Nom Type Description Obligatoire Par défaut
object string Oui
données tableau Oui
first_id string Oui
last_id string Oui
has_more booléen Oui

deleteVectorStoreResponse

Nom Type Description Obligatoire Default
id string Oui
deleted booléen Oui
object string Oui

Énumération d’objet : DeleteVectorStoreResponseObject

Valeur Description
vector_store.deleted État de l’objet de réponse de suppression du magasin de vecteurs

vectorStoreFileObject

Une liste de fichiers attachés à un magasin de vecteurs.

Nom Type Description Obligatoire Default
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Oui
object string Le type d’objet, qui est toujours vector_store.file. Oui
usage_bytes entier L’utilisation totale du magasin de vecteurs en octets. Notez qu’elle peut être différente de la taille du fichier d’origine. Oui
created_at entier Le timestamp Unix (en secondes) lorsque le fichier de magasin de vecteurs a été créé. Oui
vector_store_id string L’ID du magasin de vecteurs auquel le fichier est attaché. Oui
statut string L’état du fichier de magasin de vecteurs, qui peut être in_progress, completed, cancelled ou failed. L’état completed indique que le fichier de magasin de vecteurs est prêt à être utilisé. Oui
last_error object La dernière erreur associée à ce fichier de magasin de vecteurs. Est null en l’absence d’erreurs. Oui
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. Non

Propriétés de last_error

code

Nom Type Description Default
code string Un de server_error ou rate_limit_exceeded.

message

Nom Type Description Default
message string Une description de l’erreur à l’intention des utilisateurs.

Énumération d’objet : VectorStoreFileObjectType

Valeur Description
vector_store.file

Énumération d’état : VectorStoreFileObjectStatus

Valeur Description
in_progress
terminé
annulé
échec

otherChunkingStrategyResponseParam

Cet élément est retourné quand la stratégie de segmentation est inconnue. Généralement, cela est dû au fait que le fichier a été indexé avant l’introduction du concept chunking_strategy dans l’API.

Nom Type Description Obligatoire Default
type string Toujours other. Oui

type Enum : OtherChunkingStrategyResponseParamType

Valeur Description
other

staticChunkingStrategyResponseParam

Nom Type Description Obligatoire Default
type string Toujours static. Oui
static staticChunkingStrategy Oui

type Enum : StaticChunkingStrategyResponseParamType

Valeur Description
static

staticChunkingStrategy

Nom Type Description Obligatoire Par défaut
max_chunk_size_tokens entier Nombre maximal de jetons dans chaque segmentation. La valeur par défaut est 800. La valeur minimale est 100, alors que la valeur maximale est 4096. Oui
chunk_overlap_tokens entier Nombre de jetons qui se chevauchent entre segmentations. La valeur par défaut est 400.

Notez que le chevauchement ne doit pas excéder la moitié de max_chunk_size_tokens.
Oui

autoChunkingStrategyRequestParam

Stratégie par défaut. Cette stratégie utilise actuellement un max_chunk_size_tokens de 800 et chunk_overlap_tokens de 400.

Nom Type Description Obligatoire Default
type enum A toujours la valeur auto.
Valeurs possibles : automatique
Oui

staticChunkingStrategyRequestParam

Nom Type Description Obligatoire Default
type enum A toujours la valeur static.
Valeurs possibles : statique
Oui
static staticChunkingStrategy Oui

chunkingStrategyRequestParam

Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto.

Ce composant peut être l’un des éléments suivants :

createVectorStoreFileRequest

Nom Type Description Obligatoire Par défaut
file_id string Un ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. Oui
chunking_strategy chunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Non

listVectorStoreFilesResponse

Nom Type Description Obligatoire Par défaut
object string Oui
données tableau Oui
first_id string Oui
last_id string Oui
has_more booléen Oui

deleteVectorStoreFileResponse

Nom Type Description Obligatoire Default
id string Oui
deleted booléen Oui
object string Oui

Énumération d’objet : DeleteVectorStoreFileResponseObject

Valeur Description
vector_store.file.deleted

vectorStoreFileBatchObject

Un lot de fichiers attaché à un magasin de vecteurs.

Nom Type Description Obligatoire Default
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Oui
object string Le type d’objet, qui est toujours vector_store.file_batch. Oui
created_at entier Le timestamp Unix (en secondes) lorsque le lot de fichiers de magasin de vecteurs a été créé. Oui
vector_store_id string L’ID du magasin de vecteurs auquel le fichier est attaché. Oui
statut string L’état du lot de fichiers de magasin de vecteurs, qui peut être in_progress, completed, cancelled ou failed. Oui
file_counts object Oui

Propriétés de file_counts

in_progress

Nom Type Description Default
in_progress entier Le nombre de fichiers en cours de traitement.

terminé

Nom Type Description Default
terminé entier Le nombre de fichiers qui ont été traités.

échec

Nom Type Description Default
échec entier Le nombre de fichiers qui n’ont pas pu être traités.

annulé

Nom Type Description Default
annulé entier Nombre de fichiers annulés.

total

Nom Type Description Default
total entier Le nombre total de fichiers.

Énumération d’objet : VectorStoreFileBatchObjectType

Valeur Description
vector_store.files_batch

Énumération d’état : VectorStoreFileBatchObjectStatus

Valeur Description
in_progress
terminé
annulé
échec

createVectorStoreFileBatchRequest

Nom Type Description Obligatoire Par défaut
file_ids tableau Une liste d’ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. Oui
chunking_strategy chunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Non

assistantStreamEvent

Représente un événement émis lors de la diffusion en continu d'une exécution.

Chaque événement d’un flux d’événements envoyés par un serveur a un event et une propriété data :

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Nous émettons des événements chaque fois qu’un nouvel objet est créé, qu’il passe à un nouvel état ou qu’il fait l’objet d’un flux partiel (deltas). Par exemple, nous émettons thread.run.created lorsqu’une nouvelle exécution est créée, thread.run.completed lorsqu’une exécution est terminée, et ainsi de suite. Lorsqu’un Assistant choisit de créer un message pendant une exécution, nous émettons un thread.message.created event, un événement thread.message.in_progress, de nombreux événements thread.message.delta et enfin un événement thread.message.completed.

Nous pouvons ajouter des événements supplémentaires au fil du temps. Nous vous recommandons donc de gérer correctement les événements inconnus dans votre code.

Ce composant peut être l’un des éléments suivants :

threadStreamEvent

Ce composant peut être l’un des éléments suivants :

thread.created

Se produit quand une conversation est créée.

Nom Type Description Obligatoire Par défaut
event string Oui
données threadObject Représente un thread qui contient des messages. Oui

Données : threadObject

Énumération d’événement : ThreadStreamEventEnum

Valeur Description
thread.created L’événement créé par le thread

runStreamEvent

Ce composant peut être l’un des éléments suivants :

thread.run.created

Se produit quand une exécution est créée.

Nom Type Description Obligatoire Par défaut
event string Oui
données runObject Représente une exécution sur un thread. Oui

Données : runObject

Énumération d’événement : RunStreamEventCreated

Valeur Description
thread.run.created

thread.run.queued

Se produit lorsqu'une exécution passe à l'état queued.

Nom Type Description Obligatoire Par défaut
event string Oui
données runObject Représente une exécution sur un thread. Oui

Données : runObject

Énumération d’événement : RunStreamEventQueued

Valeur Description
thread.run.queued

thread.run.in_progress

Se produit lorsqu’une exécution passe à l’état in_progress.

Nom Type Description Obligatoire Par défaut
event string Oui
données runObject Représente une exécution sur un thread. Oui

Données : runObject

Énumération d’événement : RunStreamEventInProgress

Valeur Description
thread.run.in_progress

thread.run.requires_action

Se produit lorsqu'une exécution passe à l'état requires_action.

Nom Type Description Obligatoire Par défaut
event string Oui
données runObject Représente une exécution sur un thread. Oui

Données : runObject

Énumération d’événement : RunStreamEventRequiresAction

Valeur Description
thread.run.requires_action

thread.run.completed

Se produit quand une exécution est terminée.

Nom Type Description Obligatoire Par défaut
event string Oui
données runObject Représente une exécution sur un thread. Oui

Données : runObject

Énumération d’événement : RunStreamEventCompleted

Valeur Description
thread.run.completed

thread.run.failed

Se produit lorsqu'une exécution échoue.

Nom Type Description Obligatoire Par défaut
event string Oui
données runObject Représente une exécution sur un thread. Oui

Données : runObject

Énumération d’événement : RunStreamEventFailed

Valeur Description
thread.run.failed

thread.run.cancelling

Se produit lorsqu'une exécution passe à l'état cancelling.

Nom Type Description Obligatoire Par défaut
event string Oui
données runObject Représente une exécution sur un thread. Oui

Données : runObject

Énumération d’événement : RunStreamEventCancelling

Valeur Description
thread.run.cancelling

thread.run.cancelled

Se produit quand une exécution est annulée.

Nom Type Description Obligatoire Par défaut
event string Oui
données runObject Représente une exécution sur un thread. Oui

Données : runObject

Énumération d’événement : RunStreamEventCancelled

Valeur Description
thread.run.cancelled

thread.run.expired

Se produit lorsqu'une exécution expire.

Nom Type Description Obligatoire Par défaut
event string Oui
données runObject Représente une exécution sur un thread. Oui

Données : runObject

Énumération d’événement : RunStreamEventExpired

Valeur Description
thread.run.expired

runStepStreamEvent

Ce composant peut être l’un des éléments suivants :

thread.run.step.created

Se produit lors de la création d'une étape d'exécution.

Nom Type Description Obligatoire Par défaut
event string Oui
données runStepObject Représente une étape dans une exécution.
Oui

Données : runStepObject

Énumération d’événement : RunStepStreamEventCreated

Valeur Description
thread.run.step.created

thread.run.step.in_progress

Se produit lorsqu’une étape d’exécution passe à un état in_progress.

Nom Type Description Obligatoire Par défaut
event string Oui
données runStepObject Représente une étape dans une exécution.
Oui

Données : runStepObject

Énumération d’événement : RunStepStreamEventInProgress

Valeur Description
thread.run.step.in_progress

thread.run.step.delta

Se produit lorsque des parties d'une étape d'exécution sont diffusées en continu.

Nom Type Description Obligatoire Par défaut
event string Oui
données runStepDeltaObject Représente le delta d’une étape d’exécution, c’est-à-dire les champs modifiés d’une étape d’exécution pendant la diffusion en continu.
Oui

Données : runStepDeltaObject

Énumération d’événement : RunStepStreamEventDelta

Valeur Description
thread.run.step.delta

thread.run.step.completed

Se produit lors de la fin d'une étape d'exécution.

Nom Type Description Obligatoire Par défaut
event string Oui
données runStepObject Représente une étape dans une exécution.
Oui

Données : runStepObject

Énumération d’événement : RunStepStreamEventCompleted

Valeur Description
thread.run.step.completed

thread.run.step.failed

Se produit lors de l’échec d'une étape d'exécution.

Nom Type Description Obligatoire Par défaut
event string Oui
données runStepObject Représente une étape dans une exécution.
Oui

Données : runStepObject

Énumération d’événement : RunStepStreamEventFailed

Valeur Description
thread.run.step.failed

thread.run.step.cancelled

Se produit lors de la fin d'une étape d'annulation.

Nom Type Description Obligatoire Par défaut
event string Oui
données runStepObject Représente une étape dans une exécution.
Oui

Données : runStepObject

Énumération d’événement : RunStepStreamEventCancelled

Valeur Description
thread.run.step.cancelled

thread.run.step.expired

Se produit lors de l’expiration d'une étape d'exécution.

Nom Type Description Obligatoire Par défaut
event string Oui
données runStepObject Représente une étape dans une exécution.
Oui

Données : runStepObject

Énumération d’événement : RunStepStreamEventExpired

Valeur Description
thread.run.step.expired

messageStreamEvent

Ce composant peut être l’un des éléments suivants :

thread.message.created

Se produit lorsqu'un message est créé.

Nom Type Description Obligatoire Par défaut
event string Oui
données messageObject Représente un message dans un thread. Oui

Données : messageObject

Énumération d’événement : MessageStreamEventCreated

Valeur Description
thread.message.created

thread.message.in_progress

Se produit lorsqu’un message passe à un état in_progress.

Nom Type Description Obligatoire Par défaut
event string Oui
données messageObject Représente un message dans un thread. Oui

Données : messageObject

Énumération d’événement : MessageStreamEventInProgress

Valeur Description
thread.message.in_progress

thread.message.delta

Se produit lorsque des parties d’un message sont diffusées en continu.

Nom Type Description Obligatoire Par défaut
event string Oui
données messageDeltaObject Représente un delta de message, c’est-à-dire les champs modifiés d’un message pendant la diffusion en continu.
Oui

Données : messageDeltaObject

Énumération d’événement : MessageStreamEventDelta

Valeur Description
thread.message.delta

thread.message.completed

Se produit lorsqu'un message est terminé.

Nom Type Description Obligatoire Par défaut
event string Oui
données messageObject Représente un message dans un thread. Oui

Données : messageObject

Énumération d’événement : MessageStreamEventCompleted

Valeur Description
thread.message.completed

thread.message.incomplete

Se produit lorsqu’un message s’arrête avant d’être achevé.

Nom Type Description Obligatoire Par défaut
event string Oui
données messageObject Représente un message dans un thread. Oui

Données : messageObject

Énumération d’événement : MessageStreamEventIncomplete

Valeur Description
thread.message.incomplete

errorEvent

Se produit lorsqu'une erreur a lieu. Cela peut être dû à une erreur interne du serveur ou à un dépassement de délai.

Nom Type Description Obligatoire Par défaut
event string Oui
données error Oui

Énumération d’événement : ErrorEventEnum

Valeur Description
error

doneEvent

Se produit lorsqu'un flux se termine.

Nom Type Description Obligatoire Par défaut
event string Oui
données string Oui

Énumération d’événement : DoneEventEnum

Valeur Description
done

Énumération de données : DoneEventDataEnum

Valeur Description
[TERMINÉ]

Étapes suivantes

En savoir plus sur les modèles et l’optimisation avec l’API REST. Découvrez-en plus sur les modèles sous-jacents d’Azure OpenAI.