Partage via


Référence de l'API REST Azure OpenAI dans Microsoft Foundry Models v1

Version de l’API : v1

Variables serveur :

Variable Par défaut Descriptif
endpoint Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com

Authentification

Clé API

Transmettez une clé API avec l’en-tête api-key .

Jetons d’authentification

Transmettez un jeton d’authentification avec l’en-tête authorization .

Oauth2authoauth20

Flux : implicite

URL d’autorisation :https://login.microsoftonline.com/common/oauth2/v2.0/authorize

Étendues:

  • https://ai.azure.com/.default

Batch

Créer un lot

POST {endpoint}/openai/v1/batches

Crée et exécute un lot à partir d’un fichier chargé de requêtes

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

En-tête de requête

Nom Obligatoire Type Descriptif
accepter Vrai ficelle
Valeurs possibles : application/json

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
fenêtre de finalisation enum Le délai d’exécution pendant lequel le lot doit être traité. Actuellement, seul 24h est pris en charge.
Valeurs possibles : 24h
Oui
endpoint enum Point de terminaison à utiliser pour toutes les requêtes du lot. Actuellement /v1/chat/completions , il est pris en charge.
Valeurs possibles : /v1/chat/completions, /v1/embeddings
Oui
input_file_id ficelle ID d’un fichier chargé qui contient des demandes pour le nouveau lot.



Votre fichier d’entrée doit être mis en forme en tant que fichier JSON,
et doit être chargé avec l’objectif batch.
Non

Responses

Code d’état : 201

Description : la demande a réussi et une nouvelle ressource a été créée par conséquent.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Répertorier les lots

GET {endpoint}/openai/v1/batches

Répertoriez les lots de votre organisation.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
after query Non ficelle Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre
Un appel ultérieur peut inclure after=obj_foo afin de récupérer la page suivante de la liste.
limit query Non entier Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et
la valeur par défaut est 20.

En-tête de requête

Nom Obligatoire Type Descriptif
accepter Vrai ficelle
Valeurs possibles : application/json

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ListBatchesResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Récupérer le lot

GET {endpoint}/openai/v1/batches/{batch_id}

Récupère un lot.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
batch_id chemin Oui ficelle ID du lot à récupérer.

En-tête de requête

Nom Obligatoire Type Descriptif
accepter Vrai ficelle
Valeurs possibles : application/json

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Annuler le traitement par lots

POST {endpoint}/openai/v1/batches/{batch_id}/cancel

Annule un traitement par lots en cours.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
batch_id chemin Oui ficelle ID du lot à annuler.

En-tête de requête

Nom Obligatoire Type Descriptif
accepter Vrai ficelle
Valeurs possibles : application/json

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Chat

Créer une saisie semi-automatique de conversation

POST {endpoint}/openai/v1/chat/completions

Crée une saisie semi-automatique de conversation.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
audio OpenAI.CreateChatCompletionRequestAudio ou null Paramètres de sortie audio. Obligatoire lorsque la sortie audio est demandée avec
modalities: ["audio"].
Non
frequency_penalty nombre ou null Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de
leur fréquence existante dans le texte jusqu’à présent, réduisant
probabilité de répéter la même ligne verbatim.
Non
function_call string ou OpenAI.ChatCompletionFunctionCallOption Déconseillé en faveur de tool_choice.
Contrôle la fonction (le cas échéant) appelée par le modèle.
none signifie que le modèle n’appelle pas une fonction et génère à la place un
.
auto signifie que le modèle peut choisir entre générer un message ou appeler un
fonction.
Spécification d’une fonction particulière par le biais {"name": "my_function"} de forces
modèle à appeler cette fonction.
none est la valeur par défaut lorsqu’aucune fonction n’est présente. auto est la valeur par défaut
si des fonctions sont présentes.
Non
functions tableau d’OpenAI.ChatCompletionFunctions Déconseillé en faveur de tools.
Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON.
Non
logit_bias objet ou null Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement.
Accepte un objet JSON qui mappe les jetons (spécifié par leur ID de jeton dans le
générateur de jetons) à une valeur de biais associée de -100 à 100. Mathématiquement
le biais est ajouté aux logits générés par le modèle avant l’échantillonnage.
L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent
diminuer ou augmenter la probabilité de sélection ; valeurs telles que -100 ou 100
devrait entraîner une interdiction ou une sélection exclusive du jeton relatif.
Non
logprobs booléen ou null Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si c'est vrai,
renvoie les probabilités logarithmiques de chaque jeton de sortie renvoyé dans
content de message.
Non
max_completion_tokens entier ou null Une limite supérieure pour le nombre de jetons pouvant être générés pour
un achèvement, y compris les jetons de sortie visibles et les jetons de raisonnement.
Non
nombre_maximal_de_tokens entier ou null Nombre maximal de jetons pouvant être générés dans la complétion de conversation.
Cette valeur peut être utilisée pour contrôler les coûts du texte généré via l’API.

Cette valeur est désormais déconseillée en faveur de max_completion_tokens, et est
non compatible avec les modèles de série o1.
Non
messages tableau d’OpenAI.ChatCompletionRequestMessage Liste des messages comprenant la conversation jusqu’ici. En fonction de
modèle que vous utilisez, différents types de messages (modalités) sont pris en charge,
comme le texte, les images et l’audio.
Oui
metadata OpenAI.Metadata ou null Non
modalités OpenAI.ResponseModalities Types de sortie que vous souhaitez générer le modèle.
La plupart des modèles sont capables de générer du texte, ce qui est l’action par défaut :
["text"]
Le gpt-4o-audio-preview modèle peut également être utilisé pour
générer de l’audio. Pour demander que génère ce modèle
Vous pouvez utiliser à la fois des réponses textuelles et audio :
["text", "audio"]
Non
modèle ficelle ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAI
offre un large éventail de modèles avec différentes fonctionnalités, performances
caractéristiques et points de prix. Reportez-vous au guide du modèle
pour parcourir et comparer les modèles disponibles.
Oui
n entier ou null Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés dans tous les choix. Gardez n défini sur 1 pour minimiser les coûts. Non
parallel_tool_calls OpenAI.ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Non
prediction OpenAI.PredictionContent Contenu de sortie prédit statique, tel que le contenu d’un fichier texte qui est
être régénéré.
Non
└─ Contenu chaîne ou tableau d’OpenAI.ChatCompletionRequestMessageContentPartText Le contenu qui doit être mis en correspondance lors de la génération d’une réponse de modèle.
Si les jetons générés correspondent à ce contenu, la réponse entière du modèle
peut être retourné beaucoup plus rapidement.
Oui
└─ Type enum Le type de contenu prédit que vous souhaitez fournir. Ce type est
actuellement toujours content.
Valeurs possibles : content
Oui
pénalité_de_presence nombre ou null Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de
s’ils apparaissent ou non dans le texte jusqu’à présent, augmentant ainsi la probabilité du modèle
pour parler de nouveaux sujets.
Non
prompt_cache_key ficelle Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ. En savoir plus. Non
prompt_cache_retention chaîne ou nulle Non
effort de raisonnement OpenAI.ReasoningEffort Limite l’effort sur le raisonnement pour
les modèles de raisonnement.
Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduire
l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés
le raisonnement dans une réponse.
- gpt-5.1 nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.
- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.
- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.
- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max.
Non
format_de_réponse OpenAI.CreateChatCompletionRequestResponseFormat Objet spécifiant le format que le modèle doit générer.
Paramètre permettant d’activer { "type": "json_schema", "json_schema": {...} }
Sorties structurées qui garantissent que le modèle correspond à votre JSON fourni
Schéma. En savoir plus dans les sorties structurées
guide
.
Activer { "type": "json_object" } permet de passer au mode JSON plus ancien, qui
garantit que le message généré par le modèle est json valide. Utilisation de json_schema
La solution est préférée pour les modèles qui la prennent en charge.
Non
└─ Type OpenAI.CreateChatCompletionRequestResponseFormatType Oui
safety_identifier ficelle Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI.
Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus.
Non
seed entier ou null Cette fonctionnalité est en version bêta.
S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.
Le déterminisme n’est pas garanti, c’est pourquoi vous devriez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end.
Non
arrêter OpenAI.StopConfiguration Non pris en charge par les derniers modèles de raisonnement o3 et o4-mini.
Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons. Les
le texte retourné ne contient pas la séquence d’arrêt.
Non
store booléen ou null Indique s'il faut stocker ou non le résultat de cette demande de complétion de chat
utilisation dans la distillation de modèles ou les produits d’évaluation.
Non
ruisseau booléen ou null Si la valeur est true, les données de réponse du modèle sont diffusées en continu vers le client
tel qu’il est généré à l’aide d’événements envoyés par le serveur.
Non
stream_options OpenAI.ChatCompletionStreamOptions ou null Non
température nombre ou null Non
tool_choice OpenAI.ChatCompletionToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils.
La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si des outils sont présents.
Non
outils tableau d’OpenAI.ChatCompletionTool ou OpenAI.CustomToolChatCompletions Liste d’outils que le modèle peut appeler. Vous pouvez fournir l’une ou l’autre
outils personnalisés ou
outils de fonction.
Non
top_logprobs entier ou null Non
top_p nombre ou null Non
utilisateur chaîne (déconseillée) Identificateur unique représentant votre utilisateur final, qui peut vous aider à
surveiller et détecter les abus.
Non
user_security_context AzureUserSecurityContext Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application elle-même et l’utilisateur final qui interagit avec l’application. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Learn plus sur la protection des applications IA à l’aide de Microsoft Defender for Cloud. Non
verbosité OpenAI.Verbosity Contraint la verbosité de la réponse du modèle. Les valeurs inférieures entraînent
des réponses plus concises, tandis que des valeurs plus élevées entraînent des réponses plus détaillées.
Les valeurs actuellement prises en charge sont low, medium et high.
Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json objet ou objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Exemples

Example

POST {endpoint}/openai/v1/chat/completions

Autocomplétions

Créer une saisie semi-automatique

POST {endpoint}/openai/v1/completions

Crée une saisie semi-automatique.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
best_of entier ou null Génère des complétions best_of côté serveur et retourne la « meilleure » (celle avec la probabilité logarithmique la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.
Lorsqu’il est utilisé avec n, best_of contrôle le nombre d’achèvements de candidats et n spécifie le nombre à retourner : best_of doit être supérieur nà .
Remarque :* Étant donné que ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop.
Non
echo booléen ou null Renvoyer l’invite en plus de l’achèvement Non
frequency_penalty nombre ou null Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot.
Consultez plus d’informations sur les pénalités de fréquence et de présence.
Non
logit_bias objet ou null Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement.
Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le générateur de jetons GPT) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.
Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du jeton <|endoftext|>.
Non
logprobs entier ou null Inclut les probabilités logarithmiques sur les jetons de sortie logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est égal à 5, l’API retourne une liste des 5 jetons les plus probables. L’API retournant toujours le logprob du jeton échantillonné, il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse.
La valeur maximale de logprobs est 5.
Non
nombre_maximal_de_tokens entier ou null Nombre maximal de jetons pouvant être générés dans la complétion.
Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle. Exemple de code Python pour le comptage de jetons.
Non
modèle ficelle ID du modèle à utiliser. Vous pouvez utiliser l’API Des modèles de liste pour afficher tous vos modèles disponibles ou voir notre vue d’ensemble du modèle pour obtenir des descriptions. Oui
n entier ou null Nombre d’achèvements à générer pour chaque invite.
Remarque :* Étant donné que ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop.
Non
pénalité_de_presence nombre ou null Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
Consultez plus d’informations sur les pénalités de fréquence et de présence.
Non
prompt chaîne ou tableau de chaîne ou null Non
seed entier ou null S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.
Le déterminisme n’est pas garanti, c’est pourquoi vous devriez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end.
Non
arrêter OpenAI.StopConfiguration Non pris en charge par les derniers modèles de raisonnement o3 et o4-mini.
Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons. Les
le texte retourné ne contient pas la séquence d’arrêt.
Non
ruisseau booléen ou null Indique s’il faut renvoyer la progression partielle. S’ils sont définis, les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE]. code Example Python. Non
stream_options OpenAI.ChatCompletionStreamOptions ou null Non
suffixe chaîne ou nulle Suffixe qui vient après l’achèvement d’un texte inséré.
Ce paramètre est uniquement pris en charge pour gpt-3.5-turbo-instruct.
Non
température nombre ou null Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
Non
top_p nombre ou null Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.
Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
Non
utilisateur ficelle En savoir plus. Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Exemples

Example

POST {endpoint}/openai/v1/completions

Conteneurs

Répertorier les conteneurs

GET {endpoint}/openai/v1/containers

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
limit query Non entier Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et
la valeur par défaut est 20.
order query Non ficelle
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant etdesc
dans l’ordre décroissant.
after query Non ficelle Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre
Un appel ultérieur peut inclure after=obj_foo afin de récupérer la page suivante de la liste.
before query Non ficelle Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre
l'appel suivant peut inclure before=obj_foo afin de récupérer la page précédente de la liste.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ContainerListResource

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer un conteneur

POST {endpoint}/openai/v1/containers

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
expire_après OpenAI.CreateContainerBodyExpiresAfter Non
└─ Ancre enum
Valeurs possibles : last_active_at
Oui
└' minutes entier Oui
identifiants_de_fichiers tableau de chaînes ID de fichiers à copier dans le conteneur. Non
limite_de_mémoire enum Limite de mémoire facultative pour le conteneur. La valeur par défaut est 1g.
Valeurs possibles : 1g, , 4g16g,64g
Non
nom ficelle Nom du conteneur à créer. Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ContainerResource

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Récupérer un conteneur

GET {endpoint}/openai/v1/containers/{container_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
container_id chemin Oui ficelle ID du conteneur à récupérer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ContainerResource

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Supprimer le conteneur

DELETE {endpoint}/openai/v1/containers/{container_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
container_id chemin Oui ficelle ID du conteneur à supprimer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Répertorier les fichiers conteneur

GET {endpoint}/openai/v1/containers/{container_id}/files

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
container_id chemin Oui ficelle ID du conteneur à partir duquel répertorier les fichiers.
limit query Non entier Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et
la valeur par défaut est 20.
order query Non ficelle
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant etdesc
dans l’ordre décroissant.
after query Non ficelle Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre
Un appel ultérieur peut inclure after=obj_foo afin de récupérer la page suivante de la liste.
before query Non ficelle Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre
l'appel suivant peut inclure before=obj_foo afin de récupérer la page précédente de la liste.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ContainerFileListResource

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer un fichier conteneur

POST {endpoint}/openai/v1/containers/{container_id}/files

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
container_id chemin Oui ficelle ID du conteneur dans lequel créer un fichier.

Corps de la requête

Content-Type : multipart/form-data

Nom Type Descriptif Obligatoire Par défaut
fichier Objet File (et non nom de fichier) à charger. Non
identifiant_de_fichier ficelle Nom du fichier à créer. Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ContainerFileResource

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Récupérer le fichier conteneur

GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
container_id chemin Oui ficelle ID du conteneur.
identifiant_de_fichier chemin Oui ficelle ID du fichier à récupérer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ContainerFileResource

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Supprimer un fichier conteneur

DELETE {endpoint}/openai/v1/containers/{container_id}/files/{file_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
container_id chemin Oui ficelle ID du conteneur.
identifiant_de_fichier chemin Oui ficelle ID du fichier à supprimer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Récupérer le contenu du fichier conteneur

GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}/content

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
container_id chemin Oui ficelle ID du conteneur.
identifiant_de_fichier chemin Oui ficelle ID du fichier à partir duquel récupérer du contenu.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/octet-stream objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Conversations

Créer une conversation

POST {endpoint}/openai/v1/conversations

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
Éléments tableau d’OpenAI.InputItem ou null Non
metadata OpenAI.Metadata ou null Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ConversationResource

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Récupérer une conversation

GET {endpoint}/openai/v1/conversations/{conversation_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
conversation_id chemin Oui ficelle ID de la conversation à récupérer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ConversationResource

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Mettre à jour la conversation

POST {endpoint}/openai/v1/conversations/{conversation_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
conversation_id chemin Oui ficelle ID de la conversation à mettre à jour.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
metadata OpenAI.Metadata ou null Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.
Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ConversationResource

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Supprimer une conversation

DELETE {endpoint}/openai/v1/conversations/{conversation_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
conversation_id chemin Oui ficelle ID de la conversation à supprimer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.DeletedConversationResource

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Répertorier les éléments de conversation

GET {endpoint}/openai/v1/conversations/{conversation_id}/items

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
conversation_id chemin Oui ficelle ID de la conversation pour laquelle répertorier les éléments.
limit query Non entier Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query Non ficelle
Valeurs possibles : asc, desc
Ordre dans lequel les éléments d'entrée doivent être retournés. La valeur par défaut est desc.
after query Non ficelle ID d’élément utilisé pour répertorier les éléments suivants, dans le cadre de la pagination.
inclure query Non tableau Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ConversationItemList

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer des éléments de conversation

POST {endpoint}/openai/v1/conversations/{conversation_id}/items

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
conversation_id chemin Oui ficelle ID de la conversation à laquelle ajouter l’élément.
inclure query Non tableau Champs supplémentaires à inclure dans la réponse.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
Éléments tableau d’OpenAI.InputItem Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ConversationItemList

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Récupérer l’élément de conversation

GET {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
conversation_id chemin Oui ficelle ID de la conversation qui contient l’élément.
item_id chemin Oui ficelle ID de l’élément à récupérer.
inclure query Non tableau Champs supplémentaires à inclure dans la réponse.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ConversationItem

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Supprimer l’élément de conversation

DELETE {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
conversation_id chemin Oui ficelle ID de la conversation qui contient l’élément.
item_id chemin Oui ficelle ID de l’élément à supprimer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ConversationResource

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Evals

Répertorier les valeurs d’évaluation

GET {endpoint}/openai/v1/evals

Répertorier les évaluations d’un projet.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
after query Non ficelle Identificateur de la dernière évaluation de la demande de pagination précédente.
limit query Non entier Limite du nombre d’évaluations à retourner dans une seule réponse de pagination.
order query Non ficelle
Valeurs possibles : asc, desc
Ordre de tri pour les évaluations par horodatage. Utiliser asc pour l’ordre croissant ou
desc pour l’ordre décroissant.
ordonner_par query Non ficelle
Valeurs possibles : created_at, updated_at
Les evals peuvent être triés par heure de création ou heure de dernière mise à jour. Utilisation
created_at pour l’heure de création ou updated_at pour la dernière mise à jour
moment.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.EvalList

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer une évaluation

POST {endpoint}/openai/v1/evals

Créez la structure d’une évaluation qui peut être utilisée pour tester les performances d’un modèle.

Une évaluation est un ensemble de critères de test et d’une source de données. Après avoir créé une évaluation, vous pouvez l’exécuter sur différents modèles et paramètres de modèle. Nous prenons en charge plusieurs types de nuanceurs et de sources de données.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
data_source_config OpenAI.CreateEvalCustomDataSourceConfig ou OpenAI.CreateEvalLogsDataSourceConfig ou OpenAI.CreateEvalStoredCompletionsDataSourceConfig Configuration de la source de données utilisée pour les exécutions d’évaluation. Dicte le schéma des données utilisées dans l’évaluation. Oui
metadata OpenAI.Metadata ou null Non
nom ficelle Le nom de l’évaluation. Non
statusCode enum
Valeurs possibles : 201
Oui
critères_de_test tableau d’OpenAI.CreateEvalLabelModelGrader ou OpenAI.EvalGraderStringCheck ou OpenAI.EvalGraderTextSimilarity ou OpenAI.EvalGraderPython ou OpenAI.EvalGraderScoreModel ou EvalGraderEndpoint Liste des correcteurs de toutes les exécutions d’évaluation dans ce groupe. Les outils de notation peuvent référencer des variables dans la source de données à l’aide d’accolades doubles, comme {{item.variable_name}}. Pour référencer la sortie du modèle, utilisez l’espace de noms sample (par exemple, {{sample.output_text}}). Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.Eval

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Obtenir une évaluation

GET {endpoint}/openai/v1/evals/{eval_id}

Récupérez une évaluation par son ID. Récupère une évaluation par son ID.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
eval_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.Eval

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Mettre à jour une évaluation

POST {endpoint}/openai/v1/evals/{eval_id}

Mettez à jour les propriétés mutables d’une évaluation spécifiée.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
eval_id chemin Oui ficelle

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
metadata OpenAI.Metadata Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Il peut s’agir de
utile pour stocker des informations supplémentaires sur l’objet dans une structure
formater et interroger des objets via l’API ou le tableau de bord.
Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes
avec une longueur maximale de 512 caractères.
Non
nom ficelle Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.Eval

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Supprimer une évaluation

DELETE {endpoint}/openai/v1/evals/{eval_id}

Supprimez une évaluation spécifiée.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
eval_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Obtenir des exécutions d’évaluation

GET {endpoint}/openai/v1/evals/{eval_id}/runs

Récupérez une liste d’exécutions pour une évaluation spécifiée.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
eval_id chemin Oui ficelle
after query Non ficelle
limit query Non entier
order query Non ficelle
Valeurs possibles : asc, desc
status query Non ficelle
Valeurs possibles : queued, , in_progresscompleted, canceled,failed

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.EvalRunList

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer une exécution d’évaluation

POST {endpoint}/openai/v1/evals/{eval_id}/runs

Créez une nouvelle exécution d’évaluation, en commençant le processus de notation.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
eval_id chemin Oui ficelle

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
source de données OpenAI.CreateEvalJsonlRunDataSource ou OpenAI.CreateEvalCompletionsRunDataSource ou OpenAI.CreateEvalResponsesRunDataSource Détails sur la source de données de l’exécution. Oui
metadata OpenAI.Metadata ou null Non
nom ficelle Nom de l’exécution. Non

Responses

Code d’état : 201

Description : la demande a réussi et une nouvelle ressource a été créée par conséquent.

Type de contenu Type Description
application/json OpenAI.EvalRun

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Obtenir l’exécution d’une évaluation

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Récupérez l’exécution d’une évaluation spécifique avec son ID.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
eval_id chemin Oui ficelle
run_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.EvalRun

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Annuler l’exécution d’une évaluation

POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Annulez l’exécution d’une évaluation spécifique avec son ID.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
eval_id chemin Oui ficelle
run_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.EvalRun

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Supprimer une exécution d’évaluation

DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Supprimez l’exécution d’une évaluation spécifique avec son ID.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
eval_id chemin Oui ficelle
run_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Obtenir les éléments de sortie de l’exécution d’une évaluation

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items

Obtenir la liste des éléments de sortie de l’exécution d’une évaluation spécifiée.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
eval_id chemin Oui ficelle
run_id chemin Oui ficelle
after query Non ficelle
limit query Non entier
status query Non ficelle
Valeurs possibles : fail, pass
order query Non ficelle
Valeurs possibles : asc, desc

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.EvalRunOutputItemList

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Obtenir l’élément de sortie de l’exécution d’une évaluation

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}

Récupérez un élément de sortie spécifique à partir de l’exécution d’une évaluation avec son ID.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
eval_id chemin Oui ficelle
run_id chemin Oui ficelle
output_item_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.EvalRunOutputItem

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Fichiers

Créer un fichier

POST {endpoint}/openai/v1/files

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : multipart/form-data

Nom Type Descriptif Obligatoire Par défaut
expire_après objet Oui
└─ Ancre AzureFileExpiryAnchor Oui
└ secondes entier Oui
fichier Objet File (et non nom de fichier) à charger. Oui
objectif enum L’objectif visé du fichier téléchargé. L’un des : – assistants : Utilisé dans l’API Assistants –batch : Utilisé dans l’API Batch – fine-tune : Utilisé pour l’ajustement – evals : Utilisé pour les jeux de données d’évaluation
Valeurs possibles : assistants, , batchfine-tune,evals
Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Exemples

Example

POST {endpoint}/openai/v1/files

Lister les fichiers

GET {endpoint}/openai/v1/files

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
objectif query Non ficelle
limit query Non entier
order query Non ficelle
Valeurs possibles : asc, desc
after query Non ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ListFilesResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Récupérer le fichier

GET {endpoint}/openai/v1/files/{file_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
identifiant_de_fichier chemin Oui ficelle ID du fichier à utiliser pour cette requête.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Supprimer un fichier

DELETE {endpoint}/openai/v1/files/{file_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
identifiant_de_fichier chemin Oui ficelle ID du fichier à utiliser pour cette requête.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.DeleteFileResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Télécharger le fichier

GET {endpoint}/openai/v1/files/{file_id}/content

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
identifiant_de_fichier chemin Oui ficelle ID du fichier à utiliser pour cette requête.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/octet-stream objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Embeddings

Créer une intégration

POST {endpoint}/openai/v1/embeddings

Crée un vecteur d’incorporation représentant le texte d’entrée.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
dimensions entier Nombre de dimensions que les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs.
Contraintes : min : 1
Non
encoding_format enum Format dans lequel retourner les incorporations. La valeur peut être float ou base64.
Valeurs possibles : float, base64
Non
entrée chaîne ou tableau de chaîne ou tableau d’entiers ou de tableaux de tableau Texte d’entrée à incorporer, encodé en tant que chaîne ou tableau de jetons. Pour incorporer plusieurs entrées dans une seule requête, transmettez un tableau de chaînes ou de tableaux de jetons. L’entrée ne doit pas dépasser les jetons d’entrée max pour le modèle (8 192 jetons pour tous les modèles d’incorporation), ne peut pas être une chaîne vide, et tout tableau doit être de 2 048 dimensions ou moins. Exemple de code Python pour le comptage de jetons. Outre la limite de jetons par entrée, tous les modèles d’incorporation appliquent un maximum de 300 000 jetons additionnés sur toutes les entrées dans une seule requête. Oui
modèle ficelle ID du modèle à utiliser. Vous pouvez utiliser l’API Des modèles de liste pour afficher tous vos modèles disponibles ou voir notre vue d’ensemble du modèle pour obtenir des descriptions. Oui
utilisateur ficelle En savoir plus. Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.CreateEmbeddingResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Exemples

Example

POST {endpoint}/openai/v1/embeddings

Fine-tuning

Exécuter un outil de notation

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run

Exécutez un outil de notation.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
outil de notation OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderPython ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint Classe utilisée pour le travail de réglage précis. Oui
item OpenAI.RunGraderRequestItem Non
model_sample ficelle Exemple de modèle à évaluer. Cette valeur sera utilisée pour remplir
l’espace de noms sample. Pour plus d’informations, consultez le guide.
La variable output_json est remplie si l’exemple de modèle est une
chaîne JSON valide.
Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.RunGraderResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Valider l’outil de notation

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate

Validez un outil de notation.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
outil de notation OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderPython ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ValidateGraderResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Répertorier les autorisations de point de contrôle de réglage précis

GET {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions

Répertorier les autorisations de point de contrôle

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
fine_tuned_model_checkpoint chemin Oui ficelle ID du point de contrôle de modèle affiné pour lequel obtenir des autorisations.
project_id query Non ficelle ID du projet pour lequel obtenir des autorisations.
after query Non ficelle Identificateur pour le dernier ID d’autorisation de la demande de pagination précédente.
limit query Non entier Nombre d’autorisations à récupérer.
order query Non ficelle
Valeurs possibles : ascending, descending
Ordre dans lequel récupérer des autorisations.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ListFineTuningCheckpointPermissionResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer une autorisation de point de contrôle de réglage précis

POST {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions

Créer des autorisations de point de contrôle

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
fine_tuned_model_checkpoint chemin Oui ficelle ID du point de contrôle de modèle affiné pour lequel créer une autorisation.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
project_ids tableau de chaînes Identificateurs de projet auxquels accorder l’accès. Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ListFineTuningCheckpointPermissionResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Supprimer l’autorisation de point de contrôle de réglage précis

DELETE {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions/{permission_id}

Supprimer l’autorisation de point de contrôle

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
fine_tuned_model_checkpoint chemin Oui ficelle ID du point de contrôle de modèle affiné pour lequel supprimer une autorisation.
permission_id chemin Oui ficelle ID de l’autorisation de point de contrôle de modèle affinée à supprimer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.DeleteFineTuningCheckpointPermissionResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer un travail de réglage précis

POST {endpoint}/openai/v1/fine_tuning/jobs

Crée un travail d’ajustement qui commence le processus de création d’un modèle à partir d’un jeu de données donné.

La réponse inclut les détails du travail mis en file d’attente, y compris l’état du travail et le nom des modèles affinés une fois la tâche terminée.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
hyperparameters OpenAI.CreateFineTuningJobRequestHyperparameters Non
└ taille_du_lot chaîne ou entier Non auto
─ learning_rate_multiplier chaîne ou nombre Non
└n_epochs chaîne ou entier Non auto
Intégrations tableau d’OpenAI.CreateFineTuningJobRequestIntegrations ou null Liste des intégrations à activer pour votre travail d’ajustement. Non
metadata OpenAI.Metadata ou null Non
method OpenAI.FineTuneMethod Méthode utilisée pour l’ajustement. Non
modèle chaîne (voir les modèles valides ci-dessous) Nom du modèle à ajuster. Vous pouvez sélectionner l’un des
supportés par c0.
Oui
seed entier ou null La graine contrôle la reproductibilité du travail. La transmission de la même graine et des mêmes paramètres de travail doit produire les mêmes résultats, mais peut différer dans de rares cas.
Si une graine n’est pas spécifiée, une graine est générée pour vous.
Non
suffixe chaîne ou nulle Chaîne de jusqu’à 64 caractères qui seront ajoutés au nom de votre modèle affiné.
Par exemple, un suffix « custom-model-name » produit un nom de modèle comme ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
Non
fichier d'entraînement ficelle ID d’un fichier chargé qui contient des données de formation.
Consultez Fichier de chargement pour savoir comment charger un fichier.
Votre jeu de données doit être mis en forme en tant que fichier JSONL. En outre, vous devez charger votre fichier à l’aide de l’objectif fine-tune.
Le contenu du fichier doit différer selon que le modèle utilise la conversation, le format de saisie semi-automatique ou si la méthode de réglage précis utilise le format de préférence .
Consultez le guide affining pour plus de détails.
Oui
fichier_de_validation chaîne ou nulle ID d’un fichier chargé qui contient des données de validation.
Si vous fournissez ce fichier, les données sont utilisées pour générer la validation
métriques régulièrement pendant l’ajustement. Ces métriques peuvent être consultées dans
le fichier de résultats de l’ajustement.
Les mêmes données ne doivent pas être présentes dans les fichiers d’apprentissage et de validation.
Votre jeu de données doit être mis en forme en tant que fichier JSONL. Vous devez charger votre fichier à l’aide de l’objectif fine-tune.
Consultez le guide affining pour plus de détails.
Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.FineTuningJob

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Répertorier les travaux d’optimisation des fins paginés

GET {endpoint}/openai/v1/fine_tuning/jobs

Répertorier les travaux d’optimisation de votre organisation

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
after query Non ficelle Identificateur du dernier travail de la demande de pagination précédente.
limit query Non entier Nombre de travaux d’ajustement à récupérer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ListPaginatedFineTuningJobsResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Récupérer le travail de réglage précis

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}

Obtenez des informations sur un travail d’ajustement.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
fine_tuning_job_id chemin Oui ficelle ID du travail d’ajustement.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.FineTuningJob

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Annuler le travail de réglage précis

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel

Annulez immédiatement un travail affiné.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
fine_tuning_job_id chemin Oui ficelle ID du travail d’ajustement à annuler.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.FineTuningJob

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Répertorier les points de contrôle de travail de réglage précis

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints

Répertoriez les points de contrôle d’un travail d’ajustement.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
fine_tuning_job_id chemin Oui ficelle ID du travail d’ajustement pour lequel obtenir des points de contrôle.
after query Non ficelle L’identificateur du dernier ID de point de contrôle de la précédente requête de pagination.
limit query Non entier Le nombre de points de contrôle à récupérer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ListFineTuningJobCheckpointsResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Réglage précis - point de contrôle de copie

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy

Crée une copie d’un point de contrôle de fine-tuning au niveau de la région et du compte de destination donnés.

REMARQUE : Cette API Azure OpenAI est en préversion et peut être modifiée.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
fine_tuning_job_id chemin Oui ficelle
fine_tuning_checkpoint_id chemin Oui ficelle

En-tête de requête

Nom Obligatoire Type Descriptif
aoai-copy-ft-checkpoints Vrai ficelle
Valeurs possibles : preview
Permet d’accéder aux opérations de copie de point de contrôle pour les modèles, une fonctionnalité AOAI en préversion.
Cette fonctionnalité nécessite que l’en-tête « aoai-copy-ft-checkpoints » soit défini sur « preview ».
accepter Vrai ficelle
Valeurs possibles : application/json

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
destinationResourceId ficelle ID de la ressource de destination à copier. Oui
region ficelle Région vers laquelle copier le modèle. Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json CopyModelResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Réglage précis - obtenir un point de contrôle

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy

Obtient l’état d’une copie de point de contrôle de fine-tuning.

REMARQUE : Cette API Azure OpenAI est en préversion et peut être modifiée.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
fine_tuning_job_id chemin Oui ficelle
fine_tuning_checkpoint_id chemin Oui ficelle

En-tête de requête

Nom Obligatoire Type Descriptif
aoai-copy-ft-checkpoints Vrai ficelle
Valeurs possibles : preview
Permet d’accéder aux opérations de copie de point de contrôle pour les modèles, une fonctionnalité AOAI en préversion.
Cette fonctionnalité nécessite que l’en-tête « aoai-copy-ft-checkpoints » soit défini sur « preview ».
accepter Vrai ficelle
Valeurs possibles : application/json

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json CopyModelResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Répertorier les événements de réglage précis

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events

Obtenir les mises à jour d’état pour un travail d’ajustement.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
fine_tuning_job_id chemin Oui ficelle ID du travail d’ajustement pour obtenir des événements.
after query Non ficelle Identificateur du dernier événement de la précédente requête de pagination.
limit query Non entier Le nombre d’événements à récupérer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ListFineTuningJobEventsResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Suspendre le travail de réglage précis

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause

Suspendre un travail affiné.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
fine_tuning_job_id chemin Oui ficelle ID du travail d’ajustement à suspendre.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.FineTuningJob

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Reprendre le travail de réglage précis

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume

Reprendre une tâche d’optimisation affinée suspendue.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
fine_tuning_job_id chemin Oui ficelle ID du travail d’ajustement à reprendre.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.FineTuningJob

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Models

Lister les modèles

GET {endpoint}/openai/v1/models

Répertorie les modèles actuellement disponibles et fournit des informations de base sur chacun d’eux, tels que le propriétaire et la disponibilité.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ListModelsResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Récupérer le modèle

GET {endpoint}/openai/v1/models/{model}

Récupère une instance de modèle, fournissant des informations de base sur le modèle, telles que le propriétaire et l’autorisation.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
modèle chemin Oui ficelle ID du modèle à utiliser pour cette requête.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.Model

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Supprimer le modèle

DELETE {endpoint}/openai/v1/models/{model}

Supprime une instance de modèle.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
modèle chemin Oui ficelle ID du modèle à supprimer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.DeleteModelResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Temps réel

Créer un appel en temps réel

POST {endpoint}/openai/v1/realtime/calls

Créez un appel d’API en temps réel sur WebRTC et recevez la réponse SDP nécessaire pour terminer la connexion homologue.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : multipart/form-data

Nom Type Descriptif Obligatoire Par défaut
Sdp ficelle Offre SDP (WebRTC Session Description Protocol) générée par l’appelant. Oui
session OpenAI.RealtimeSessionCreateRequestGA Configuration de l’objet session en temps réel. Non
Audio └> OpenAI.RealtimeSessionCreateRequestGAAudio Configuration de l’audio d’entrée et de sortie. Non
Inclure └ ; tableau de chaînes Champs supplémentaires à inclure dans les sorties du serveur.
item.input_audio_transcription.logprobs: incluez des logprobs pour la transcription audio d’entrée.
Non
└─ Instructions ficelle Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple« être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité.
Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles lors de l’événement session.created au début de la session.
Non
└ max_output_tokens entier (voir les modèles valides ci-dessous) Nombre maximal de jetons de sortie pour une réponse d’assistant unique,
inclus dans les appels d’outils. Fournir un entier compris entre 1 et 4096 à
limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un
modèle donné. La valeur par défaut est inf.
Non
└─ Modèle ficelle Modèle temps réel utilisé pour cette session. Non
└output_modalities tableau de chaînes L’ensemble de modalités avec laquelle le modèle peut répondre. Il est ["audio"]par défaut , indiquant
que le modèle répond avec l’audio et une transcription. ["text"] peut être utilisé pour faire
le modèle répond uniquement avec du texte. Il n’est pas possible de demander les deux text et audio en même temps.
Non ['audio']
└─ invite OpenAI.Prompt Référence à un modèle d’invite et à ses variables.
En savoir plus.
Non
└─ choix_outil OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceFunction ou OpenAI.ToolChoiceMCP Comment le modèle choisit les outils. Fournir l’un des modes de chaîne ou forcer un élément spécifique
outil function/MCP.
Non auto
└─ Outils tableau d’OpenAI.RealtimeFunctionTool ou OpenAI.MCPTool Outils disponibles pour le modèle. Non
Suivi └> string ou OpenAI.RealtimeSessionCreateRequestGATracing ou null « » Défini sur Null pour désactiver le suivi. Une fois
le suivi est activé pour une session, la configuration ne peut pas être modifiée.
auto crée une trace pour la session avec des valeurs par défaut pour le
nom du flux de travail, ID de groupe et métadonnées.
Non auto
└─ troncature OpenAI.RealtimeTruncation Lorsque le nombre de jetons d’une conversation dépasse la limite du jeton d’entrée du modèle, la conversation est tronquée, ce qui signifie que les messages (à partir du plus ancien) ne sont pas inclus dans le contexte du modèle. Un modèle de contexte de 32 096 avec 4 096 jetons de sortie max ne peut inclure que 28 224 jetons dans le contexte avant la troncation.
Les clients peuvent configurer le comportement de troncation pour tronquer avec une limite de jeton maximale inférieure, ce qui constitue un moyen efficace de contrôler l’utilisation et le coût des jetons.
La troncation réduit le nombre de jetons mis en cache au prochain tour (busting the cache), car les messages sont supprimés du début du contexte. Toutefois, les clients peuvent également configurer la troncation pour conserver les messages jusqu’à une fraction de la taille de contexte maximale, ce qui réduit la nécessité de troncations futures et améliore ainsi le taux de cache.
La troncation peut être désactivée entièrement, ce qui signifie que le serveur ne sera jamais tronqué, mais retournerait plutôt une erreur si la conversation dépasse la limite du jeton d’entrée du modèle.
Non
└─ Type enum Type de session à créer. Toujours realtime pour l’API En temps réel.
Valeurs possibles : realtime
Oui

Responses

Code d’état : 201

Description : la demande a réussi et une nouvelle ressource a été créée par conséquent.

Type de contenu Type Description
application/sdp ficelle

En-têtes de réponse :

Header Type Descriptif
location ficelle URL relative contenant l’ID d’appel pour les demandes de contrôle suivantes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Accepter un appel en temps réel

POST {endpoint}/openai/v1/realtime/calls/{call_id}/accept

Acceptez un appel SIP entrant et configurez la session en temps réel qui la gérera.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
call_id chemin Oui ficelle Identificateur de l’appel fourni dans le webhook realtime.call.incoming.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
audio OpenAI.RealtimeSessionCreateRequestGAAudio Non
└─ Entrée OpenAI.RealtimeSessionCreateRequestGAAudioInput Non
└─ Sortie OpenAI.RealtimeSessionCreateRequestGAAudioOutput Non
inclure tableau de chaînes Champs supplémentaires à inclure dans les sorties du serveur.
item.input_audio_transcription.logprobs: incluez des logprobs pour la transcription audio d’entrée.
Non
instructions ficelle Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple« être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité.
Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles lors de l’événement session.created au début de la session.
Non
max_output_tokens entier (voir les modèles valides ci-dessous) Nombre maximal de jetons de sortie pour une réponse d’assistant unique,
inclus dans les appels d’outils. Fournir un entier compris entre 1 et 4096 à
limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un
modèle donné. La valeur par défaut est inf.
Non
modèle ficelle Modèle temps réel utilisé pour cette session. Non
modalités de sortie tableau de chaînes L’ensemble de modalités avec laquelle le modèle peut répondre. Il est ["audio"]par défaut , indiquant
que le modèle répond avec l’audio et une transcription. ["text"] peut être utilisé pour faire
le modèle répond uniquement avec du texte. Il n’est pas possible de demander les deux text et audio en même temps.
Non ['audio']
prompt OpenAI.Prompt Référence à un modèle d’invite et à ses variables.
En savoir plus.
Non
tool_choice OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceFunction ou OpenAI.ToolChoiceMCP Comment le modèle choisit les outils. Fournir l’un des modes de chaîne ou forcer un élément spécifique
outil function/MCP.
Non
outils tableau d’OpenAI.RealtimeFunctionTool ou OpenAI.MCPTool Outils disponibles pour le modèle. Non
tracing string ou OpenAI.RealtimeSessionCreateRequestGATracing ou null « » Défini sur Null pour désactiver le suivi. Une fois
le suivi est activé pour une session, la configuration ne peut pas être modifiée.
auto crée une trace pour la session avec des valeurs par défaut pour le
nom du flux de travail, ID de groupe et métadonnées.
Non
truncation OpenAI.RealtimeTruncation Lorsque le nombre de jetons d’une conversation dépasse la limite du jeton d’entrée du modèle, la conversation est tronquée, ce qui signifie que les messages (à partir du plus ancien) ne sont pas inclus dans le contexte du modèle. Un modèle de contexte de 32 096 avec 4 096 jetons de sortie max ne peut inclure que 28 224 jetons dans le contexte avant la troncation.
Les clients peuvent configurer le comportement de troncation pour tronquer avec une limite de jeton maximale inférieure, ce qui constitue un moyen efficace de contrôler l’utilisation et le coût des jetons.
La troncation réduit le nombre de jetons mis en cache au prochain tour (busting the cache), car les messages sont supprimés du début du contexte. Toutefois, les clients peuvent également configurer la troncation pour conserver les messages jusqu’à une fraction de la taille de contexte maximale, ce qui réduit la nécessité de troncations futures et améliore ainsi le taux de cache.
La troncation peut être désactivée entièrement, ce qui signifie que le serveur ne sera jamais tronqué, mais retournerait plutôt une erreur si la conversation dépasse la limite du jeton d’entrée du modèle.
Non
type enum Type de session à créer. Toujours realtime pour l’API En temps réel.
Valeurs possibles : realtime
Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Raccrocher un appel en temps réel

POST {endpoint}/openai/v1/realtime/calls/{call_id}/hangup

Terminez un appel d’API en temps réel actif, qu’il ait été lancé via SIP ou WebRTC.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
call_id chemin Oui ficelle Identificateur de l’appel.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Faire référence à l’appel en temps réel

POST {endpoint}/openai/v1/realtime/calls/{call_id}/refer

Transférez un appel SIP actif vers une nouvelle destination à l’aide du verbe SIP REFER.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
call_id chemin Oui ficelle Identificateur de l’appel fourni dans le webhook realtime.call.incoming.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
target_uri ficelle URI qui doit apparaître dans l’en-tête Refer-To SIP. Prend en charge les valeurs telles que
tel:+14155550123 ou sip:agent\@example.com.
Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Rejeter l’appel en temps réel

POST {endpoint}/openai/v1/realtime/calls/{call_id}/reject

Refuser un appel SIP entrant en retournant un code d’état SIP à l’appelant.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
call_id chemin Oui ficelle Identificateur de l’appel fourni dans le webhook realtime.call.incoming.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
status_code entier Code de réponse SIP à renvoyer à l’appelant. 603 Valeurs par défaut (Refuser)
lorsqu’il est omis.
Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer une clé secrète client en temps réel

POST {endpoint}/openai/v1/realtime/client_secrets

Créez une clé secrète client en temps réel avec une configuration de session associée.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
expire_après OpenAI.RealtimeCreateClientSecretRequestExpiresAfter Non
└─ Ancre enum
Valeurs possibles : created_at
Non
└ secondes entier Contraintes : min : 10, max : 7200 Non 600
session OpenAI.RealtimeSessionCreateRequestUnion Non
└─ Type OpenAI.RealtimeSessionCreateRequestUnionType Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.RealtimeCreateClientSecretResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer une session en temps réel

POST {endpoint}/openai/v1/realtime/sessions

Créez un jeton d’API éphémère à utiliser dans les applications côté client avec l’API Temps réel.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
secret du client OpenAI.RealtimeSessionCreateRequestClientSecret Oui
expires_at entier Oui
└─ valeur ficelle Oui
input_audio_format ficelle Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw. Non
input_audio_transcription OpenAI.RealtimeSessionCreateRequestInputAudioTranscription Non
└─ Modèle ficelle Non
instructions ficelle Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple« être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité.
Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles lors de l’événement session.created au début de la session.
Non
max_response_output_tokens entier (voir les modèles valides ci-dessous) Nombre maximal de jetons de sortie pour une réponse d’assistant unique,
inclus dans les appels d’outils. Fournir un entier compris entre 1 et 4096 à
limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un
modèle donné. La valeur par défaut est inf.
Non
modalités tableau de chaînes L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio,
définissez cette valeur sur ["text"].
Non ['text', 'audio']
output_audio_format ficelle Format de l’audio de sortie. Les options sont pcm16, g711_ulaw ou g711_alaw. Non
prompt OpenAI.Prompt Référence à un modèle d’invite et à ses variables.
En savoir plus.
Non
speed nombre Vitesse de la réponse parlée du modèle. 1.0 est la vitesse par défaut. 0.25 est
vitesse minimale. 1,5 est la vitesse maximale. Cette valeur ne peut être modifiée que
entre les tours du modèle, et non pendant qu’une réponse est en cours.
Contraintes : min : 0,25, max : 1,5
Non 1
température nombre Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. La valeur par défaut est 0,8. Non
tool_choice ficelle Comment le modèle choisit les outils. Les options sont auto, , nonerequiredou
spécifiez une fonction.
Non
outils array of OpenAI.RealtimeSessionCreateRequestTools Outils (fonctions) disponibles pour le modèle. Non
tracing chaîne ou objet Options de configuration pour le suivi. Définissez la valeur Null pour désactiver le suivi. Une fois
le suivi est activé pour une session, la configuration ne peut pas être modifiée.
auto crée une trace pour la session avec des valeurs par défaut pour le
nom du flux de travail, ID de groupe et métadonnées.
Non
truncation OpenAI.RealtimeTruncation Lorsque le nombre de jetons d’une conversation dépasse la limite du jeton d’entrée du modèle, la conversation est tronquée, ce qui signifie que les messages (à partir du plus ancien) ne sont pas inclus dans le contexte du modèle. Un modèle de contexte de 32 096 avec 4 096 jetons de sortie max ne peut inclure que 28 224 jetons dans le contexte avant la troncation.
Les clients peuvent configurer le comportement de troncation pour tronquer avec une limite de jeton maximale inférieure, ce qui constitue un moyen efficace de contrôler l’utilisation et le coût des jetons.
La troncation réduit le nombre de jetons mis en cache au prochain tour (busting the cache), car les messages sont supprimés du début du contexte. Toutefois, les clients peuvent également configurer la troncation pour conserver les messages jusqu’à une fraction de la taille de contexte maximale, ce qui réduit la nécessité de troncations futures et améliore ainsi le taux de cache.
La troncation peut être désactivée entièrement, ce qui signifie que le serveur ne sera jamais tronqué, mais retournerait plutôt une erreur si la conversation dépasse la limite du jeton d’entrée du modèle.
Non
turn_detection OpenAI.RealtimeSessionCreateRequestTurnDetection Non
prefix_padding_ms entier Non
└durée_du_silence_ms entier Non
└─ seuil nombre Non
└─ Type ficelle Non
type enum
Valeurs possibles : realtime
Oui
voice OpenAI.VoiceIdsShared Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.RealtimeSessionCreateResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer une session de transcription en temps réel

POST {endpoint}/openai/v1/realtime/transcription_sessions

Créez un jeton d’API éphémère à utiliser dans les applications côté client avec l’API Temps réel spécifiquement pour les transcriptions en temps réel.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
inclure tableau de chaînes Ensemble d’éléments à inclure dans la transcription. Les éléments disponibles actuels sont les suivants :
item.input_audio_transcription.logprobs
Non
input_audio_format enum Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw.
Pour pcm16, l’audio d’entrée doit être 16 bits PCM à un taux d’échantillonnage de 24 kHz,
un canal unique (mono) et un ordre d’octets little-endian.
Valeurs possibles : pcm16, , g711_ulawg711_alaw
Non
input_audio_noise_reduction OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction Non
└─ Type OpenAI.NoiseReductionType Type de réduction du bruit. near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence. Non
input_audio_transcription OpenAI.AudioTranscription Non
└─ Langue ficelle La langue de l’audio d’entrée. Fourniture de la langue d’entrée dans
Format ISO-639-1 (par exemple en)
améliore la précision et la latence.
Non
└─ Modèle ficelle Modèle à utiliser pour la transcription. Les options actuelles sont whisper-1, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeet gpt-4o-transcribe-diarize. Utilisez gpt-4o-transcribe-diarize quand vous avez besoin d’une diarisation avec des étiquettes d’orateur. Non
└─ invite ficelle Texte facultatif pour guider le style du modèle ou continuer un audio précédent
Segment.
Pour whisper-1, l’invite est une liste de mots clés.
Pour gpt-4o-transcribe les modèles (à l’exclusion gpt-4o-transcribe-diarize), l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ».
Non
turn_detection OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection Non
prefix_padding_ms entier Non
└durée_du_silence_ms entier Non
└─ seuil nombre Non
└─ Type enum
Valeurs possibles : server_vad
Non
type enum
Valeurs possibles : transcription
Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.RealtimeTranscriptionSessionCreateResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Responses

Créer une réponse

POST {endpoint}/openai/v1/responses

Crée un modèle de réponse.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
background booléen ou null Non
conversation OpenAI.ConversationParam ou null Non
inclure tableau d’OpenAI.IncludeEnum ou null Non
entrée OpenAI.InputParam Entrées de texte, d’image ou de fichier dans le modèle, utilisées pour générer une réponse.
Pour en savoir plus:
- Entrées et sorties texte
- Entrées d’image
- Entrées de fichier
- État de conversation
- Fonction appelant
Non
instructions chaîne ou nulle Non
max_output_tokens entier ou null Non
max_tool_calls entier ou null Non
metadata OpenAI.Metadata ou null Non
modèle ficelle ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAI
offre un large éventail de modèles avec différentes fonctionnalités, performances
caractéristiques et points de prix. Reportez-vous au guide du modèle
pour parcourir et comparer les modèles disponibles.
Non
parallel_tool_calls booléen ou null Non
previous_response_id chaîne ou nulle Non
prompt OpenAI.Prompt Référence à un modèle d’invite et à ses variables.
En savoir plus.
Non
prompt_cache_key ficelle Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ. En savoir plus. Non
prompt_cache_retention chaîne ou nulle Non
reasoning OpenAI.Reasoning ou Null Non
safety_identifier ficelle Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI.
Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus.
Non
store booléen ou null Non
ruisseau booléen ou null Non
stream_options OpenAI.ResponseStreamOptions ou null Non
température nombre ou null Non
texte OpenAI.ResponseTextParam Options de configuration d’une réponse texte à partir du modèle. Peut être du texte
brut ou des données JSON structurées. Pour en savoir plus:
- Entrées et sorties texte
- Sorties structurées
Non
tool_choice OpenAI.ToolChoiceParam Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération
une réponse. Voir le tools paramètre pour voir comment spécifier les outils
le modèle peut effectuer un appel.
Non
outils OpenAI.ToolsArray Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous
peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.
Nous prenons en charge les catégories d’outils suivantes :
- Outils intégrés : outils fournis par OpenAI qui étendent le
Les capacités du modèle, comme recherche web
ou fichier c0. En savoir plus sur
outils intégrés.
- Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés
ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur
Outils MCP.
- Appels de fonction (outils personnalisés) : fonctions définies par vous,
activation du modèle pour appeler votre propre code avec des arguments fortement typés
et sorties. En savoir plus sur
fonction appelant. Vous pouvez également utiliser
outils personnalisés pour appeler votre propre code.
Non
top_logprobs entier ou null Non
top_p nombre ou null Non
truncation chaîne ou nulle Non
utilisateur chaîne (déconseillée) Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.
Identificateur stable pour vos utilisateurs finaux.
Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus.
Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json objet
text/event-stream objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Exemples

Example

POST {endpoint}/openai/v1/responses

Obtenir la réponse

GET {endpoint}/openai/v1/responses/{response_id}

Récupère une réponse de modèle avec l’ID donné.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
response_id chemin Oui ficelle
include[] query Non tableau Champs supplémentaires à inclure dans la réponse. Pour plus d’informations, consultez le paramètre Include pour la création de réponse ci-dessus.
ruisseau query Non booléen Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur.
starting_after query Non entier Numéro de séquence de l’événement après lequel démarrer la diffusion en continu.
include_obfuscation query Non booléen Lorsque la valeur est true, l’obfuscation de flux est activée. L’obfuscation de flux ajoute des caractères aléatoires à un champ obfuscation sur les événements delta de diffusion en continu afin de normaliser les tailles de charge utile en guise d’atténuation de certaines attaques par canal latéral. Ces champs d’obfuscation sont inclus par défaut, mais ils ajoutent une petite surcharge au flux de données. Vous pouvez affecter la valeur false à include_obfuscation pour optimiser la bande passante si vous faites confiance aux liaisons réseau entre votre application et l’API OpenAI.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Supprimer la réponse

DELETE {endpoint}/openai/v1/responses/{response_id}

Supprime une réponse par ID.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
response_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Annuler la réponse

POST {endpoint}/openai/v1/responses/{response_id}/cancel

Annule une réponse de modèle avec l’ID donné. Seules les réponses créées avec le paramètre d’arrière-plan défini sur true peuvent être annulées.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
response_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Répertorier les éléments d’entrée

GET {endpoint}/openai/v1/responses/{response_id}/input_items

Retourne une liste d’éléments d’entrée pour une réponse donnée.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
response_id chemin Oui ficelle
limit query Non entier Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et
la valeur par défaut est 20.
order query Non ficelle
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant etdesc
dans l’ordre décroissant.
after query Non ficelle Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre
Un appel ultérieur peut inclure after=obj_foo afin de récupérer la page suivante de la liste.
before query Non ficelle Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre
l'appel suivant peut inclure before=obj_foo afin de récupérer la page précédente de la liste.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ResponseItemList

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Sujets

Créer un thread

POST {endpoint}/openai/v1/threads

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
messages tableau d’OpenAI.CreateMessageRequest Liste des messages à utiliser pour démarrer le thread. Non
metadata OpenAI.Metadata ou null Non
tool_resources OpenAI.CreateThreadRequestToolResources ou null Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ThreadObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Createthread and run

POST {endpoint}/openai/v1/threads/runs

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
assistant_id ficelle ID de l’Assistant à utiliser pour exécuter cette exécution. Oui
instructions chaîne ou nulle Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. Non
max_completion_tokens entier ou null Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. Non
max_prompt_tokens entier ou null Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. Non
metadata OpenAI.Metadata ou null Non
modèle ficelle ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. Non
parallel_tool_calls OpenAI.ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Non
format_de_réponse OpenAI.AssistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.
Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le
La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.
Important :* lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non
ruisseau booléen ou null Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE]. Non
température nombre ou null Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Non
fil OpenAI.CreateThreadRequest Options de création d’un thread. Si aucun thread n’est fourni lors de l’exécution d’un thread
demande, un thread vide est créé.
Non
tool_choice OpenAI.AssistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils avant de répondre à l’utilisateur.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Non
tool_resources OpenAI.CreateThreadAndRunRequestToolResources ou null Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. Non
outils tableau d’OpenAI.AssistantTool Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. Non
top_p nombre ou null Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.
Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
Non
truncation_strategy OpenAI.TruncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.RunObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Supprimer un thread

DELETE {endpoint}/openai/v1/threads/{thread_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.DeleteThreadResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Récupérer le thread

GET {endpoint}/openai/v1/threads/{thread_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ThreadObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Modifier le thread

POST {endpoint}/openai/v1/threads/{thread_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
metadata OpenAI.Metadata ou null Non
tool_resources OpenAI.ModifyThreadRequestToolResources ou null Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ThreadObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Répertorier des messages

GET {endpoint}/openai/v1/threads/{thread_id}/messages

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle
limit query Non entier
order query Non ficelle
Valeurs possibles : asc, desc
after query Non ficelle
before query Non ficelle
run_id query Non ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ListMessagesResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer un message

POST {endpoint}/openai/v1/threads/{thread_id}/messages

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
attachments tableau d’OpenAI.CreateMessageRequestAttachments ou null Non
contenu chaîne ou tableau d’OpenAI.MessageContentImageFileObject ou OpenAI.MessageContentImageUrlObject ou OpenAI.MessageRequestContentTextObject Oui
metadata OpenAI.Metadata ou null Non
role enum Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes :
- user : indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur.
- assistant : indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation.
Valeurs possibles : user, assistant
Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.MessageObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Supprimer un message

DELETE {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle
message_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.DeleteMessageResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Récupérer le message

GET {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle
message_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.MessageObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Modifier le message

POST {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle
message_id chemin Oui ficelle

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
metadata OpenAI.Metadata ou null Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.MessageObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer une exécution

POST {endpoint}/openai/v1/threads/{thread_id}/runs

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
additional_instructions chaîne ou nulle Ajoute des instructions supplémentaires à la fin des instructions de l’exécution. Cela est utile pour modifier le comportement lors de chaque exécution sans remplacer d’autres instructions. Non
additional_messages tableau d’OpenAI.CreateMessageRequest ou null Ajoute des messages supplémentaires au thread avant de créer l’exécution. Non
assistant_id ficelle ID de l’Assistant à utiliser pour exécuter cette exécution. Oui
instructions chaîne ou nulle Remplace les instructions de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. Non
max_completion_tokens entier ou null Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. Non
max_prompt_tokens entier ou null Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. Non
metadata OpenAI.Metadata ou null Non
modèle ficelle ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. Non
parallel_tool_calls OpenAI.ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Non
effort de raisonnement OpenAI.ReasoningEffort Limite l’effort sur le raisonnement pour
les modèles de raisonnement.
Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduire
l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés
le raisonnement dans une réponse.
- gpt-5.1 nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.
- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.
- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.
- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max.
Non
format_de_réponse OpenAI.AssistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.
Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le
La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.
Important :* lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non
ruisseau booléen ou null Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE]. Non
température nombre ou null Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Non
tool_choice OpenAI.AssistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils avant de répondre à l’utilisateur.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Non
outils tableau d’OpenAI.AssistantTool Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. Non
top_p nombre ou null Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.
Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
Non
truncation_strategy OpenAI.TruncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.RunObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Répertorier les exécutions

GET {endpoint}/openai/v1/threads/{thread_id}/runs

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle
limit query Non entier
order query Non ficelle
Valeurs possibles : asc, desc
after query Non ficelle
before query Non ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ListRunsResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Récupérer l’exécution

GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle
run_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.RunObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Modifier l’exécution

POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle
run_id chemin Oui ficelle

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
metadata OpenAI.Metadata ou null Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.RunObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Annuler l’exécution

POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/cancel

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle
run_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.RunObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Lister les étapes d’exécution

GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle
run_id chemin Oui ficelle
limit query Non entier
order query Non ficelle
Valeurs possibles : asc, desc
after query Non ficelle
before query Non ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ListRunStepsResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Obtenir l’étape d’exécution

GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps/{step_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle
run_id chemin Oui ficelle
step_id chemin Oui ficelle

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.RunStepObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Envoyer des sorties d’outil à exécuter

POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/submit_tool_outputs

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
thread_id chemin Oui ficelle
run_id chemin Oui ficelle

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
ruisseau booléen ou null Non
tool_outputs tableau d’OpenAI.SubmitToolOutputsRunRequestToolOutputs Liste des outils pour lesquels les sorties sont envoyées. Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.RunObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Magasins de vecteurs

Répertorier les magasins de vecteurs

GET {endpoint}/openai/v1/vector_stores

Retourne une liste de magasins de vecteurs.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
limit query Non entier Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et
la valeur par défaut est 20.
order query Non ficelle
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant etdesc
dans l’ordre décroissant.
after query Non ficelle Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre
Un appel ultérieur peut inclure after=obj_foo afin de récupérer la page suivante de la liste.
before query Non ficelle Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre
l'appel suivant peut inclure before=obj_foo afin de récupérer la page précédente de la liste.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ListVectorStoresResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer un magasin de vecteurs

POST {endpoint}/openai/v1/vector_stores

Crée un magasin de vecteurs.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
chunking_strategy OpenAI.ChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. Non
descriptif ficelle Description du magasin de vecteurs. Peut être utilisé pour décrire l’objectif du magasin vectoriel. Non
expire_après OpenAI.VectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. Non
identifiants_de_fichiers tableau de chaînes Liste des ID de fichier que le magasin vectoriel doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. Non
metadata OpenAI.Metadata ou null Non
nom ficelle Le nom du magasin de vecteurs. Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.VectorStoreObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Exemples

Example

POST {endpoint}/openai/v1/vector_stores

Obtenir le magasin de vecteurs

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}

Récupère un magasin de vecteurs.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
vector_store_id chemin Oui ficelle L'ID du magasin de vecteurs à récupérer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.VectorStoreObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Modifier le magasin de vecteurs

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}

Modifie un magasin de vecteurs.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
vector_store_id chemin Oui ficelle ID du magasin de vecteurs à modifier.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
expire_après OpenAI.VectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. Non
metadata OpenAI.Metadata ou null Non
nom chaîne ou nulle Le nom du magasin de vecteurs. Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.VectorStoreObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Supprimer le magasin de vecteurs

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}

Supprimez un magasin de vecteurs.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
vector_store_id chemin Oui ficelle ID du magasin de vecteurs à supprimer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.DeleteVectorStoreResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer un lot de fichiers de magasin de vecteurs

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches

Créez un lot de fichiers de magasin de vecteurs.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
vector_store_id chemin Oui ficelle ID du magasin de vecteurs pour lequel créer un lot de fichiers.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
attributes OpenAI.VectorStoreFileAttributes ou null Non
chunking_strategy OpenAI.ChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. Non
identifiants_de_fichiers tableau de chaînes Liste des ID de fichier que le magasin vectoriel doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. S’ils attributes sont fournis ou chunking_strategy fournis, ils sont appliqués à tous les fichiers du lot. Mutuellement exclusif avec files. Non
Fichiers array of OpenAI.CreateVectorStoreFileRequest Liste d’objets qui incluent chacun un file_id plus facultatif attributes ou chunking_strategy. Utilisez cette option lorsque vous devez remplacer les métadonnées pour des fichiers spécifiques. attributes Global ou chunking_strategy sera ignoré et doit être spécifié pour chaque fichier. Mutuellement exclusif avec file_ids. Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.VectorStoreFileBatchObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Obtenir le lot de fichiers de magasin de vecteurs

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}

Récupère un lot de fichiers de magasin de vecteurs.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
vector_store_id chemin Oui ficelle ID du magasin de vecteurs auquel appartient le lot de fichiers.
batch_id chemin Oui ficelle ID du lot de fichiers récupéré.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.VectorStoreFileBatchObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Annuler le lot de fichiers de magasin de vecteurs

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel

Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
vector_store_id chemin Oui ficelle ID du magasin de vecteurs auquel appartient le lot de fichiers.
batch_id chemin Oui ficelle ID du lot de fichiers à annuler.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.VectorStoreFileBatchObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Répertorier les fichiers dans le lot de magasin de vecteurs

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files

Retourne une liste de fichiers de magasin de vecteurs dans un lot.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
vector_store_id chemin Oui ficelle ID du magasin de vecteurs auquel appartient le lot de fichiers.
batch_id chemin Oui ficelle ID du lot de fichiers auquel appartiennent les fichiers.
limit query Non entier Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et
la valeur par défaut est 20.
order query Non ficelle
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant etdesc
dans l’ordre décroissant.
after query Non ficelle Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre
Un appel ultérieur peut inclure after=obj_foo afin de récupérer la page suivante de la liste.
before query Non ficelle Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre
l'appel suivant peut inclure before=obj_foo afin de récupérer la page précédente de la liste.
Filter query Non ficelle
Valeurs possibles : in_progress, , completedfailed,cancelled
Filtrer par état de fichier. Un des in_progress, completed, failed, cancelled.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ListVectorStoreFilesResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Répertorier les fichiers de magasin de vecteurs

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files

Retourne une liste de fichiers de magasin de vecteurs.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
vector_store_id chemin Oui ficelle ID du magasin vectoriel auquel appartiennent les fichiers.
limit query Non entier Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et
la valeur par défaut est 20.
order query Non ficelle
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant etdesc
dans l’ordre décroissant.
after query Non ficelle Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre
Un appel ultérieur peut inclure after=obj_foo afin de récupérer la page suivante de la liste.
before query Non ficelle Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre
l'appel suivant peut inclure before=obj_foo afin de récupérer la page précédente de la liste.
Filter query Non ficelle
Valeurs possibles : in_progress, , completedfailed,cancelled
Filtrer par état de fichier. Un des in_progress, completed, failed, cancelled.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.ListVectorStoreFilesResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Créer un fichier de magasin de vecteurs

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files

Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin de vecteurs.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
vector_store_id chemin Oui ficelle ID du magasin de vecteurs pour lequel créer un fichier.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
attributes OpenAI.VectorStoreFileAttributes ou null Non
chunking_strategy OpenAI.ChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. Non
identifiant_de_fichier ficelle ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.VectorStoreFileObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Obtenir le fichier de magasin de vecteurs

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Récupère un fichier de magasin de vecteurs.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
vector_store_id chemin Oui ficelle ID du magasin vectoriel auquel appartient le fichier.
identifiant_de_fichier chemin Oui ficelle ID du fichier récupéré.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.VectorStoreFileObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Mettre à jour les attributs de fichier de magasin de vecteurs

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
vector_store_id chemin Oui ficelle
identifiant_de_fichier chemin Oui ficelle

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
attributes OpenAI.VectorStoreFileAttributes ou null Oui

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.VectorStoreFileObject

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Supprimer le fichier de magasin de vecteurs

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin de vecteurs, mais le fichier lui-même ne sera pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de point de terminaison de point de terminaison de fichier de suppression.

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
vector_store_id chemin Oui ficelle ID du magasin vectoriel auquel appartient le fichier.
identifiant_de_fichier chemin Oui ficelle ID du fichier à supprimer.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.DeleteVectorStoreFileResponse

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Récupérer le contenu du fichier de stockage de vecteurs

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}/content

Récupérer le contenu du fichier de stockage de vecteurs

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
vector_store_id chemin Oui ficelle ID du magasin de vecteurs à rechercher.
identifiant_de_fichier chemin Oui ficelle ID du fichier pour lequel récupérer du contenu.

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.VectorStoreSearchResultsPage

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Stockage de vecteurs de recherche

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/search

Stockage de vecteurs de recherche

Paramètres d’URI

Nom In Obligatoire Type Descriptif
endpoint chemin Oui ficelle Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
version de l'API query Non ficelle Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.
v1 sauf indication contraire.
vector_store_id chemin Oui ficelle ID du magasin de vecteurs à rechercher.

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
filters OpenAI.ComparisonFilter ou OpenAI.CompoundFilter Filtre à appliquer en fonction des attributs de fichier. Non
nombre_maximal_de_résultats entier Le nombre maximal de résultats à renvoyer. Ce nombre doit être compris entre 1 et 50 inclus.
Contraintes : min : 1, max : 50
Non 10
query chaîne ou tableau de chaînes Chaîne de requête pour une recherche Oui
options_de_classement OpenAI.VectorStoreSearchRequestRankingOptions Non
└─ classificateur enum
Valeurs possibles : none, , autodefault-2024-11-15
Non
└score_threshold nombre Contraintes : min : 0, max : 1 Non
rewrite_query booléen Indique s’il faut réécrire la requête en langage naturel pour la recherche vectorielle. Non

Responses

Code d’état : 200

Description : la requête a bien abouti.

Type de contenu Type Description
application/json OpenAI.VectorStoreSearchResultsPage

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Type de contenu Type Description
application/json objet

En-têtes de réponse :

Header Type Descriptif
apim-request-id ficelle ID de demande utilisé à des fins de résolution des problèmes.

Components

AudioSegment

Nom Type Descriptif Obligatoire Par défaut
avg_logprob nombre Probabilité moyenne du journal associée à ce segment audio. Oui
compression_ratio nombre Taux de compression de ce segment audio. Oui
fin nombre Heure à laquelle ce segment s’est terminé par rapport au début de l’audio traduit. Oui
id entier Index de base 0 de ce segment dans une traduction. Oui
no_speech_prob nombre Probabilité d’absence de détection vocale dans ce segment audio. Oui
seek entier Position de recherche associée au traitement de ce segment audio.
Les positions de recherche sont exprimées sous forme de centièmes de secondes.
Le modèle peut traiter plusieurs segments d’une position de recherche unique, de sorte que la position de recherche ne représentera jamais
de date ultérieur au début du segment. Le début du segment peut représenter une heure beaucoup plus tard que
la position de recherche associée du segment.
Oui
start nombre Heure à laquelle ce segment a commencé par rapport au début de l’audio traduit. Oui
température nombre Score de température associé à ce segment audio. Oui
texte ficelle Texte traduit qui faisait partie de ce segment audio. Oui
tokens tableau d’entiers ID de jeton correspondant au texte traduit dans ce segment audio. Oui

AudioTaskLabel

Définit les descripteurs possibles pour les réponses d’opération audio disponibles.

Propriété Valeur
Description Définit les descripteurs possibles pour les réponses d’opération audio disponibles.
Type ficelle
Valeurs transcribe
translate

AudioTranslationSegment

Informations étendues sur un segment unique de données audio traduites. Les segments représentent généralement environ 5 à 10 secondes de parole. Les limites de segment se produisent généralement entre des mots, mais pas nécessairement des phrases.

Nom Type Descriptif Obligatoire Par défaut
avg_logprob nombre Probabilité moyenne du journal associée à ce segment audio. Oui
compression_ratio nombre Taux de compression de ce segment audio. Oui
fin nombre Heure à laquelle ce segment s’est terminé par rapport au début de l’audio traduit. Oui
id entier Index de base 0 de ce segment dans une traduction. Oui
no_speech_prob nombre Probabilité d’absence de détection vocale dans ce segment audio. Oui
seek entier Position de recherche associée au traitement de ce segment audio.
Les positions de recherche sont exprimées sous forme de centièmes de secondes.
Le modèle peut traiter plusieurs segments d’une position de recherche unique, de sorte que la position de recherche ne représentera jamais
de date ultérieur au début du segment. Le début du segment peut représenter une heure beaucoup plus tard que
la position de recherche associée du segment.
Oui
start nombre Heure à laquelle ce segment a commencé par rapport au début de l’audio traduit. Oui
température nombre Score de température associé à ce segment audio. Oui
texte ficelle Texte traduit qui faisait partie de ce segment audio. Oui
tokens tableau d’entiers ID de jeton correspondant au texte traduit dans ce segment audio. Oui

AzureAIFoundryModelsApiVersion

Propriété Valeur
Type ficelle
Valeurs v1
preview

AzureAudioTranscriptionResponse

Informations de résultat pour une opération qui a transcrit l’audio parlé en texte écrit.

Nom Type Descriptif Obligatoire Par défaut
durée nombre Durée totale de l’audio traité pour produire des informations de transcription associées. Non
language ficelle Langue parlée détectée dans les données audio transcrites.
Cela est exprimé sous la forme d’un code de langue ISO-639-1 à deux lettres comme « en » ou « fr ».
Non
segments tableau d’OpenAI.TranscriptionSegment Collection d’informations sur le minutage, les probabilités et les autres détails de chaque segment audio traité. Non
tâche AudioTaskLabel Définit les descripteurs possibles pour les réponses d’opération audio disponibles. Non
texte ficelle Texte transcrit pour les données audio fournies. Oui
words tableau d’OpenAI.TranscriptionWord Collection d’informations sur le minutage de chaque mot traité. Non

AzureAudioTranslationResponse

Informations de résultat pour une opération qui a traduit l’audio parlé en texte écrit.

Nom Type Descriptif Obligatoire Par défaut
durée nombre Durée totale de l’audio traité pour produire des informations de traduction associées. Non
language ficelle Langue parlée détectée dans les données audio traduites.
Cela est exprimé sous la forme d’un code de langue ISO-639-1 à deux lettres comme « en » ou « fr ».
Non
segments tableau d’AudioTranslationSegment Collection d’informations sur le minutage, les probabilités et les autres détails de chaque segment audio traité. Non
tâche AudioTaskLabel Définit les descripteurs possibles pour les réponses d’opération audio disponibles. Non
texte ficelle Texte traduit pour les données audio fournies. Oui

AzureCompletionsSamplingParams

Paramètres d’échantillonnage pour contrôler le comportement des achèvements.

Nom Type Descriptif Obligatoire Par défaut
max_completion_tokens entier Non
nombre_maximal_de_tokens entier Nombre maximal de jetons dans la sortie générée. Non
effort de raisonnement OpenAI.ReasoningEffort Limite l’effort sur le raisonnement pour
les modèles de raisonnement.
Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduire
l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés
le raisonnement dans une réponse.
- gpt-5.1 nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.
- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.
- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.
- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max.
Non
format_de_réponse OpenAI.ResponseFormatText ou OpenAI.ResponseFormatJsonSchema ou OpenAI.ResponseFormatJsonObject Non
seed entier Une valeur initiale initialise la randomité pendant l’échantillonnage. Non 42
température nombre Une température plus élevée augmente l'aléa des résultats. Non 1
outils tableau d’OpenAI.ChatCompletionTool Non
top_p nombre Alternative à la température pour l'échantillonnage de noyau ; 1.0 inclut tous les éléments. Non 1

AzureContentFilterBlocklistIdResult

Élément de résultat de filtre de contenu qui associe un ID de liste de blocs personnalisé existant à une valeur indiquant si la liste de blocs correspondante a entraîné le filtrage du contenu.

Nom Type Descriptif Obligatoire Par défaut
filtered booléen Indique si la liste de blocs associée a entraîné le filtrage du contenu. Oui
id ficelle ID de la liste de blocs personnalisée associée à l’état filtré. Oui

AzureContentFilterBlocklistResult

Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées.

Nom Type Descriptif Obligatoire Par défaut
details tableau d’objet Les paires d’ID individuels de liste de blocage et si elles ont entraîné une action de filtrage. Non
filtered booléen Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. Oui

AzureContentFilterCompletionTextSpan

Une représentation d’un segment de texte d'achèvement tel qu’utilisé par Azure OpenAI pour les résultats du filtre de contenu.

Nom Type Descriptif Obligatoire Par défaut
completion_end_offset entier Décalage du premier code de caractère UTF32 exclu de l’étendue. Ce champ est toujours égal à completion_start_offset pour les étendues vides. Ce champ est toujours supérieur à completion_start_offset pour les étendues non vides. Oui
completion_start_offset entier Décalage du code de caractère UTF32 qui commence l’étendue. Oui

AzureContentFilterCompletionTextSpanDetectionResult

Nom Type Descriptif Obligatoire Par défaut
details tableau d’AzureContentFilterCompletionTextSpan Des informations détaillées sur les segments de texte détectés lors de l’achèvement. Oui
détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
filtered booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui

AzureContentFilterCustomTopicIdResult

Élément de résultat de filtre de contenu qui associe un ID de rubrique personnalisé existant à une valeur indiquant si la rubrique correspondante a entraîné la détection du contenu.

Nom Type Descriptif Obligatoire Par défaut
détecté booléen Indique si la rubrique personnalisée associée a entraîné la détection du contenu. Oui
id ficelle ID de la rubrique personnalisée associée à l’état détecté. Oui

AzureContentFilterCustomTopicResult

Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées.

Nom Type Descriptif Obligatoire Par défaut
details tableau d’objet Paires d’ID de rubriques individuelles et détections. Non
filtered booléen Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. Oui

AzureContentFilterDetectionResult

Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré.

Nom Type Descriptif Obligatoire Par défaut
détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
filtered booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui

AzureContentFilterForResponsesAPI

Nom Type Descriptif Obligatoire Par défaut
Bloqué booléen Indiquez si la réponse est bloquée. Oui
content_filter_offsets AzureContentFilterResultOffsets Oui
content_filter_results AzureContentFilterResultsForResponsesAPI Oui
└─ listes_de_bloc_personnalisées AzureContentFilterBlocklistResult Collection de résultats de filtrage binaire pour les listes de blocs personnalisées configurées. Non
└custom_topics AzureContentFilterCustomTopicResult Collection de résultats de filtrage binaire pour les rubriques personnalisées configurées. Non
Erreur └ ; objet S’ils sont présents, des détails sur une erreur qui empêche le filtrage du contenu de finaliser son évaluation. Non
└─ Code entier Code distinct lisible par l’ordinateur associé à l’erreur. Oui
└─ Message ficelle Message lisible par l’homme associé à l’erreur. Oui
└─ haine AzureContentFilterSeverityResult Catégorie de filtre de contenu qui peut faire référence à n’importe quel contenu qui attaque ou utilise des données dimensionnelles ou discriminatoires
langue faisant référence à une personne ou à un groupe d’identités en fonction de certains attributs de différenciation de ces groupes
y compris, mais pas limité à la race, l’ethnicité, la nationalité, l’identité de genre et l’expression, l’orientation sexuelle,
religion, statut d’immigration, statut de capacité, apparence personnelle et taille du corps.
Non
└─ attaque_indirecte AzureContentFilterDetectionResult Résultat de détection qui décrit les attaques sur les systèmes alimentés par des modèles IA génératifs qui peuvent se produire à chaque fois
une application traite les informations qui n’ont pas été créées directement par le développeur de l’application ou
utilisateur.
Non
└' jailbreak AzureContentFilterDetectionResult Résultat de détection qui décrit les attaques d’injection d’invite utilisateur, où les utilisateurs malveillants exploitent délibérément
vulnérabilités système pour provoquer un comportement non autorisé à partir du LLM. Cela peut entraîner un contenu inapproprié
génération ou violations des restrictions imposées par le système.
Oui
└personally_identifiable_information AzureContentFilterPersonallyIdentifiableInformationResult Résultat de détection qui décrit les correspondances avec les informations d’identification personnelle avec des sous-catégories configurables. Non
└> profanéité AzureContentFilterDetectionResult Résultat de détection qui identifie si le langage brut, vulgaire ou autre est présent dans la langue
Contenu.
Non
└protected_material_code objet Résultat de détection qui décrit une correspondance avec le code sous licence ou d’autres documents sources protégés. Non
Citation └ ; objet Si disponibles, les détails de la citation qui décrivent la licence associée et son emplacement. Non
URL └─ ficelle URL associée à la licence. Non
└─ licence ficelle Nom ou identificateur de la licence associée à la détection. Non
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
└protected_material_text AzureContentFilterDetectionResult Résultat de détection qui décrit une correspondance avec le texte protégé sous le droit d’auteur ou un autre état. Non
└─ automutilation AzureContentFilterSeverityResult Catégorie de filtre de contenu qui décrit la langue liée aux actions physiques destinées à blesser, blesser,
endommager son corps ou se tuer.
Non
└─ sexuelle AzureContentFilterSeverityResult Catégorie de filtre de contenu pour la langue liée aux organes anatomiques et aux organes génitaux, relations romantiques, actes
représentées en termes érotiques ou affectueux, grossesse, actes sexuels physiques, y compris ceux présentés comme un
agression ou acte violent sexuel forcé contre la volonté, la prostitution, la pornographie et l’abus.
Non
└task_adherence AzureContentFilterDetectionResult Résultat de détection qui indique si le flux d’exécution reste fidèle au plan. Oui
└ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult Non
└' violence AzureContentFilterSeverityResult Catégorie de filtre de contenu pour la langue liée aux actions physiques destinées à blesser, blesser, endommager ou tuer
quelqu’un ou quelque chose ; décrit les armes, les armes à feu et les entités connexes, telles que les fabrications, les associations,
législation, et ainsi de suite.
Non
source_type ficelle Nom du type source du message. Oui

AzureContentFilterHarmExtensions

Extensions pour les catégories de préjudices, fournissant des options de configuration supplémentaires.

Nom Type Descriptif Obligatoire Par défaut
pii_sub_categories tableau d’AzurePiiSubCategory Configuration pour PIIHarmSubCategory(s). Non

AzureContentFilterImagePromptResults

Résultat d’un filtre de contenu pour le contenu de la demande d’entrée d’une opération de génération d’image.

Nom Type Descriptif Obligatoire Par défaut
custom_blocklists AzureContentFilterBlocklistResult Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées. Non
└─ détails tableau d’objet Les paires d’ID individuels de liste de blocage et si elles ont entraîné une action de filtrage. Non
└> filtré booléen Valeur indiquant si la liste de blocs a produit une action de filtrage. Oui
└─ identifiant ficelle ID de la liste de blocs personnalisée évaluée. Oui
└> filtré booléen Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. Oui
custom_topics AzureContentFilterCustomTopicResult Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées. Non
└─ détails tableau d’objet Paires d’ID de rubriques individuelles et détections. Non
└─ détecté booléen Valeur indiquant si la rubrique est détectée. Oui
└─ identifiant ficelle ID de la rubrique personnalisée évaluée. Oui
└> filtré booléen Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. Oui
haine AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
jailbreak AzureContentFilterDetectionResult Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été
filtré.
Oui
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
profanité AzureContentFilterDetectionResult Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été
filtré.
Non
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
self_harm AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
sexuel AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
violence AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui

AzureContentFilterImageResponseResults

Résultat d’un filtre de contenu pour le contenu de réponse de sortie d’une opération de génération d’image.

Nom Type Descriptif Obligatoire Par défaut
haine AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
self_harm AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
sexuel AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
violence AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui

AzureContentFilterPersonallyIdentifiableInformationResult

Résultat de détection de filtre de contenu pour les informations d’identification personnelle qui inclut des extensions de préjudice.

Nom Type Descriptif Obligatoire Par défaut
détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
filtered booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
redacted_text ficelle Texte expurgé avec des informations d’identification personnelle supprimées ou masquées. Non
sub_categories tableau d’AzurePiiSubCategoryResult Résultats détaillés pour une ou plusieurs PIIHarmSubCategory. Non

AzureContentFilterResultForChoice

Résultat d’un filtre de contenu pour un élément de réponse unique produit par un système d’INTELLIGENCE artificielle générative.

Nom Type Descriptif Obligatoire Par défaut
custom_blocklists AzureContentFilterBlocklistResult Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées. Non
└─ détails tableau d’objet Les paires d’ID individuels de liste de blocage et si elles ont entraîné une action de filtrage. Non
└> filtré booléen Valeur indiquant si la liste de blocs a produit une action de filtrage. Oui
└─ identifiant ficelle ID de la liste de blocs personnalisée évaluée. Oui
└> filtré booléen Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. Oui
custom_topics AzureContentFilterCustomTopicResult Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées. Non
└─ détails tableau d’objet Paires d’ID de rubriques individuelles et détections. Non
└─ détecté booléen Valeur indiquant si la rubrique est détectée. Oui
└─ identifiant ficelle ID de la rubrique personnalisée évaluée. Oui
└> filtré booléen Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. Oui
erreur objet S’ils sont présents, des détails sur une erreur qui empêche le filtrage du contenu de finaliser son évaluation. Non
└─ Code entier Code distinct lisible par l’ordinateur associé à l’erreur. Oui
└─ Message ficelle Message lisible par l’homme associé à l’erreur. Oui
haine AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
personally_identifiable_information AzureContentFilterPersonallyIdentifiableInformationResult Résultat de détection de filtre de contenu pour les informations d’identification personnelle qui inclut des extensions de préjudice. Non
└redacted_text ficelle Texte expurgé avec des informations d’identification personnelle supprimées ou masquées. Non
└─ sub-catégories tableau d’AzurePiiSubCategoryResult Résultats détaillés pour une ou plusieurs PIIHarmSubCategory. Non
profanité AzureContentFilterDetectionResult Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été
filtré.
Non
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
protected_material_code objet Résultat de détection qui décrit une correspondance avec le code sous licence ou d’autres documents sources protégés. Non
Citation └ ; objet Si disponibles, les détails de la citation qui décrivent la licence associée et son emplacement. Non
URL └─ ficelle URL associée à la licence. Non
└─ licence ficelle Nom ou identificateur de la licence associée à la détection. Non
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
protected_material_text AzureContentFilterDetectionResult Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été
filtré.
Non
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
self_harm AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
sexuel AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult Non
violence AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui

AzureContentFilterResultForPrompt

Résultat d’un filtre de contenu associé à un seul élément de requête d’entrée dans un système d’IA générative.

Nom Type Descriptif Obligatoire Par défaut
content_filter_results objet Les détails de la catégorie de filtre de contenu pour le résultat. Non
└─ listes_de_bloc_personnalisées AzureContentFilterBlocklistResult Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées. Non
└─ détails tableau d’objet Les paires d’ID individuels de liste de blocage et si elles ont entraîné une action de filtrage. Non
└> filtré booléen Valeur indiquant si la liste de blocs a produit une action de filtrage. Oui
└─ identifiant ficelle ID de la liste de blocs personnalisée évaluée. Oui
└> filtré booléen Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. Oui
└custom_topics AzureContentFilterCustomTopicResult Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées. Non
└─ détails tableau d’objet Paires d’ID de rubriques individuelles et détections. Non
└─ détecté booléen Valeur indiquant si la rubrique est détectée. Oui
└─ identifiant ficelle ID de la rubrique personnalisée évaluée. Oui
└> filtré booléen Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. Oui
Erreur └ ; objet S’ils sont présents, des détails sur une erreur qui empêche le filtrage du contenu de finaliser son évaluation. Non
└─ Code entier Code distinct lisible par l’ordinateur associé à l’erreur. Oui
└─ Message ficelle Message lisible par l’homme associé à l’erreur. Oui
└─ haine AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
└─ attaque_indirecte AzureContentFilterDetectionResult Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été
filtré.
Oui
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
└' jailbreak AzureContentFilterDetectionResult Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été
filtré.
Oui
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
└> profanéité AzureContentFilterDetectionResult Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été
filtré.
Non
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
└─ automutilation AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
└─ sexuelle AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
└' violence AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
prompt_index entier L’index de la requête d’entrée associée aux catégories associées de résultats du filtre de contenu. Non

AzureContentFilterResultOffsets

Nom Type Descriptif Obligatoire Par défaut
check_offset entier Oui
end_offset entier Oui
start_offset entier Oui

AzureContentFilterResultsForResponsesAPI

Nom Type Descriptif Obligatoire Par défaut
custom_blocklists AzureContentFilterBlocklistResult Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées. Non
└─ détails tableau d’objet Les paires d’ID individuels de liste de blocage et si elles ont entraîné une action de filtrage. Non
└> filtré booléen Valeur indiquant si la liste de blocs a produit une action de filtrage. Oui
└─ identifiant ficelle ID de la liste de blocs personnalisée évaluée. Oui
└> filtré booléen Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. Oui
custom_topics AzureContentFilterCustomTopicResult Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées. Non
└─ détails tableau d’objet Paires d’ID de rubriques individuelles et détections. Non
└─ détecté booléen Valeur indiquant si la rubrique est détectée. Oui
└─ identifiant ficelle ID de la rubrique personnalisée évaluée. Oui
└> filtré booléen Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. Oui
erreur objet S’ils sont présents, des détails sur une erreur qui empêche le filtrage du contenu de finaliser son évaluation. Non
└─ Code entier Code distinct lisible par l’ordinateur associé à l’erreur. Oui
└─ Message ficelle Message lisible par l’homme associé à l’erreur. Oui
haine AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
indirect_attack AzureContentFilterDetectionResult Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été
filtré.
Non
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
jailbreak AzureContentFilterDetectionResult Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été
filtré.
Oui
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
personally_identifiable_information AzureContentFilterPersonallyIdentifiableInformationResult Résultat de détection de filtre de contenu pour les informations d’identification personnelle qui inclut des extensions de préjudice. Non
└redacted_text ficelle Texte expurgé avec des informations d’identification personnelle supprimées ou masquées. Non
└─ sub-catégories tableau d’AzurePiiSubCategoryResult Résultats détaillés pour une ou plusieurs PIIHarmSubCategory. Non
profanité AzureContentFilterDetectionResult Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été
filtré.
Non
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
protected_material_code objet Résultat de détection qui décrit une correspondance avec le code sous licence ou d’autres documents sources protégés. Non
Citation └ ; objet Si disponibles, les détails de la citation qui décrivent la licence associée et son emplacement. Non
URL └─ ficelle URL associée à la licence. Non
└─ licence ficelle Nom ou identificateur de la licence associée à la détection. Non
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
protected_material_text AzureContentFilterDetectionResult Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été
filtré.
Non
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
self_harm AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
sexuel AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui
task_adherence AzureContentFilterDetectionResult Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été
filtré.
Oui
└─ détecté booléen Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Oui
└> filtré booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu. Oui
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult Non
violence AzureContentFilterSeverityResult Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité
niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie.
Non
└> filtré booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
└─ Sévérité enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui

AzureContentFilterSeverityResult

Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie.

Nom Type Descriptif Obligatoire Par défaut
filtered booléen Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Oui
severity enum La gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Oui

AzureFileExpiryAnchor

Propriété Valeur
Type ficelle
Valeurs created_at

AzureFineTuneReinforcementMethod

Nom Type Descriptif Obligatoire Par défaut
outil de notation OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint Oui
hyperparameters OpenAI.FineTuneReinforcementHyperparameters Les hyperparamètres utilisés pour le travail d’ajustement du renforcement. Non
format_de_réponse ResponseFormatJSONSchemaRequest Non
└ json_schema objet Schéma JSON pour le format de réponse Oui
└─ Type enum Type de format de réponse
Valeurs possibles : json_schema
Oui

AzurePiiSubCategory

Configuration de piIHarmSubCategory(s) individuelle au sein de l’infrastructure d’extensions de préjudice.

Nom Type Descriptif Obligatoire Par défaut
détecter booléen Indique si la détection est activée pour cette sous-catégorie. Oui
Filter booléen Indique si le contenu contenant cette sous-catégorie doit être bloqué. Oui
react booléen Indique si le contenu contenant cette sous-catégorie doit être supprimé. Oui
sub_category ficelle PiIHarmSubCategory en cours de configuration. Oui

AzurePiiSubCategoryResult

Détails des résultats pour une ou plusieurs PIIHarmSubCategory.

Nom Type Descriptif Obligatoire Par défaut
détecté booléen Indique si la sous-catégorie de contenu étiquetée a été détectée dans le contenu. Oui
filtered booléen Indique si la détection de contenu a entraîné une action de filtrage de contenu pour cette sous-catégorie. Oui
redacted booléen Indique si le contenu a été expurgé pour cette sous-catégorie. Oui
sub_category ficelle PIIHarmSubCategory qui a été évaluée. Oui

AzureResponsesSamplingParams

Paramètres d’échantillonnage pour contrôler le comportement des réponses.

Nom Type Descriptif Obligatoire Par défaut
nombre_maximal_de_tokens entier Nombre maximal de jetons dans la sortie générée. Non
effort de raisonnement OpenAI.ReasoningEffort Limite l’effort sur le raisonnement pour
les modèles de raisonnement.
Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduire
l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés
le raisonnement dans une réponse.
- gpt-5.1 nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.
- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.
- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.
- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max.
Non
seed entier Une valeur initiale initialise la randomité pendant l’échantillonnage. Non 42
température nombre Une température plus élevée augmente l'aléa des résultats. Non 1
texte OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText Non
outils tableau d’OpenAI.Tool Non
top_p nombre Alternative à la température pour l'échantillonnage de noyau ; 1.0 inclut tous les éléments. Non 1

AzureUserSecurityContext

Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application elle-même et l’utilisateur final qui interagit avec l’application. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Learn plus sur la protection des applications IA à l’aide de Microsoft Defender for Cloud.

Nom Type Descriptif Obligatoire Par défaut
application_name ficelle Le nom de l’application. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. Non
end_user_id ficelle Cet identificateur est l’ID d’objet utilisateur Microsoft Entra ID (anciennement Azure Active Directory) utilisé pour authentifier les utilisateurs finaux dans l’application IA générative. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. Non
end_user_tenant_id ficelle L’ID de locataire Microsoft 365 auquel appartient l’utilisateur final. Il est nécessaire lorsque l’application IA générative est multi-tenant. Non
source_ip ficelle Capture l’adresse IP du client d’origine. Non

CopiedAccountDetails

Nom Type Descriptif Obligatoire Par défaut
destinationResourceId ficelle ID de la ressource de destination vers laquelle le modèle a été copié. Oui
region ficelle Région dans laquelle le modèle a été copié. Oui
status enum État de l’opération de copie.
Valeurs possibles : Completed, , FailedInProgress
Oui

CopyModelRequest

Nom Type Descriptif Obligatoire Par défaut
destinationResourceId ficelle ID de la ressource de destination à copier. Oui
region ficelle Région vers laquelle copier le modèle. Oui

CopyModelResponse

Nom Type Descriptif Obligatoire Par défaut
checkpointedModelName ficelle ID du modèle copié. Oui
copiedAccountDetails tableau de CopiedAccountDetails ID de la ressource de destination où il a été copié. Oui
fineTuningJobId ficelle ID du travail de fine-tuning à partir duquel le point de contrôle a été copié. Oui

CreateVideoBody

Nom Type Descriptif Obligatoire Par défaut
modèle ficelle Nom du déploiement à utiliser pour cette demande. Oui
prompt ficelle Invite de texte qui décrit la vidéo à générer.
Contraintes : minLength : 1
Oui
secondes VideoSeconds Durées de clip prises en charge, mesurées en secondes. Non 4
taille VideoSize Dimensions de sortie mises en forme en tant que {width}x{height}. Non 720x1280

CreateVideoBodyWithInputReference

Propriétés d’une demande de travail de génération vidéo avec des fichiers multimédias.

Nom Type Descriptif Obligatoire Par défaut
input_reference objet Référence d’image facultative qui guide la génération. Oui
modèle objet Nom du déploiement à utiliser pour cette demande. Oui
prompt objet Invite de texte qui décrit la vidéo à générer. Oui
secondes objet Durée du clip en secondes. La valeur par défaut est de 4 secondes. Non
taille objet Résolution de sortie mise en forme sous forme de largeur x hauteur. La valeur par défaut est 720x1280. Non

CreateVideoRemixBody

Paramètres pour remixer une vidéo générée existante.

Nom Type Descriptif Obligatoire Par défaut
prompt ficelle Invite de texte mise à jour qui dirige la génération de remix.
Contraintes : minLength : 1
Oui

DeletedVideoResource

Charge utile de confirmation retournée après la suppression d’une vidéo.

Nom Type Descriptif Obligatoire Par défaut
supprimé booléen Indique que la ressource vidéo a été supprimée. Oui Vrai
id ficelle Identificateur de la vidéo supprimée. Oui
objet ficelle Type d’objet qui signale la réponse de suppression. Oui video.deleted

Error

Nom Type Descriptif Obligatoire Par défaut
code ficelle Oui
message ficelle Oui

EvalGraderEndpoint

Nom Type Descriptif Obligatoire Par défaut
headers objet ou null En-têtes HTTP facultatifs à inclure dans les requêtes adressées au point de terminaison Non
nom ficelle Nom du classateur Oui
seuil de passage nombre ou null Score de seuil facultatif au-dessus duquel la note est considérée comme passant
Si ce n’est pas spécifié, tous les scores sont considérés comme valides
Non
rate_limit entier ou null Limite de débit facultative pour les requêtes par seconde au point de terminaison
Doit être un entier positif
Non
type enum
Valeurs possibles : endpoint
Oui
url ficelle URL HTTPS du point de terminaison à appeler pour la notation
Contraintes : modèle :^https://
Oui

GraderEndpoint

Configuration du gradeur de point de terminaison pour l’évaluation du point de terminaison HTTP externe

Nom Type Descriptif Obligatoire Par défaut
headers objet ou null En-têtes HTTP facultatifs à inclure dans les requêtes adressées au point de terminaison Non
nom ficelle Nom du classateur Oui
seuil de passage nombre ou null Score de seuil facultatif au-dessus duquel la note est considérée comme passant
Si ce n’est pas spécifié, tous les scores sont considérés comme valides
Non
rate_limit entier ou null Limite de débit facultative pour les requêtes par seconde au point de terminaison
Doit être un entier positif
Non
type enum
Valeurs possibles : endpoint
Oui
url ficelle URL HTTPS du point de terminaison à appeler pour la notation
Contraintes : modèle :^https://
Oui

OpenAI.Annotation

Annotation qui s’applique à une étendue de texte de sortie.

Discriminant pour OpenAI.Annotation

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
file_citation OpenAI.FileCitationBody
url_citation OpenAI.UrlCitationBody
container_file_citation OpenAI.ContainerFileCitationBody
file_path OpenAI.FilePath
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.AnnotationType Oui

OpenAI.AnnotationType

Propriété Valeur
Type ficelle
Valeurs file_citation
url_citation
container_file_citation
file_path

OpenAI.ApplyPatchCallOutputStatus

Propriété Valeur
Type ficelle
Valeurs completed
failed

OpenAI.ApplyPatchCallStatus

Propriété Valeur
Type ficelle
Valeurs in_progress
completed

OpenAI.ApplyPatchCreateFileOperation

Instructions décrivant comment créer un fichier via l’outil apply_patch.

Nom Type Descriptif Obligatoire Par défaut
Diff ficelle Différences à appliquer. Oui
chemin ficelle Chemin d’accès du fichier à créer. Oui
type enum Créez un fichier avec le diff fourni.
Valeurs possibles : create_file
Oui

OpenAI.ApplyPatchDeleteFileOperation

Instructions décrivant comment supprimer un fichier via l’outil apply_patch.

Nom Type Descriptif Obligatoire Par défaut
chemin ficelle Chemin d’accès du fichier à supprimer. Oui
type enum Supprimez le fichier spécifié.
Valeurs possibles : delete_file
Oui

OpenAI.ApplyPatchFileOperation

Une des opérations create_file, delete_file ou update_file appliquées via apply_patch.

Discriminateur pour OpenAI.ApplyPatchFileOperation

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
create_file OpenAI.ApplyPatchCreateFileOperation
delete_file OpenAI.ApplyPatchDeleteFileOperation
update_file OpenAI.ApplyPatchUpdateFileOperation
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.ApplyPatchFileOperationType Oui

OpenAI.ApplyPatchFileOperationType

Propriété Valeur
Type ficelle
Valeurs create_file
delete_file
update_file

OpenAI.ApplyPatchToolParam

Permet à l’assistant de créer, supprimer ou mettre à jour des fichiers en utilisant des diffs unifiées.

Nom Type Descriptif Obligatoire Par défaut
type enum Type de l’outil. A toujours la valeur apply_patch.
Valeurs possibles : apply_patch
Oui

OpenAI.ApplyPatchUpdateFileOperation

Instructions décrivant comment mettre à jour un fichier via l’outil apply_patch.

Nom Type Descriptif Obligatoire Par défaut
Diff ficelle Différences à appliquer. Oui
chemin ficelle Chemin d’accès du fichier à mettre à jour. Oui
type enum Mettez à jour un fichier existant avec le diff fourni.
Valeurs possibles : update_file
Oui

OpenAI.ApproximateLocation

Nom Type Descriptif Obligatoire Par défaut
city chaîne ou nulle Non
country chaîne ou nulle Non
region chaîne ou nulle Non
timezone chaîne ou nulle Non
type enum Le type d’approximation de la localisation. A toujours la valeur approximate.
Valeurs possibles : approximate
Oui

OpenAI.AssistantTool

Discriminateur pour OpenAI.AssistantTool

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
code_interpreter OpenAI.AssistantToolsCode
file_search OpenAI.AssistantToolsFileSearch
function OpenAI.AssistantToolsFunction
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.AssistantToolType Oui

OpenAI.AssistantToolType

Propriété Valeur
Type ficelle
Valeurs code_interpreter
file_search
function

OpenAI.AssistantToolsCode

Nom Type Descriptif Obligatoire Par défaut
type enum Le type d’outil défini : code_interpreter
Valeurs possibles : code_interpreter
Oui

OpenAI.AssistantToolsFileSearch

Nom Type Descriptif Obligatoire Par défaut
file_search OpenAI.AssistantToolsFileSearchFileSearch Non
└─ max_nombre_de_résultats entier Contraintes : min : 1, max : 50 Non
└ranking_options OpenAI.FileSearchRankingOptions Options de classement pour la recherche de fichiers. S’il n’est pas spécifié, l’outil de recherche de fichiers utilise le auto ranker et une score_threshold de 0.
Pour plus d’informations, consultez la documentation de l’outil de recherche de fichiers .
Non
type enum Le type d’outil défini : file_search
Valeurs possibles : file_search
Oui

OpenAI.AssistantToolsFileSearchFileSearch

Nom Type Descriptif Obligatoire Par défaut
nombre_maximal_de_résultats entier Contraintes : min : 1, max : 50 Non
options_de_classement OpenAI.FileSearchRankingOptions Options de classement pour la recherche de fichiers. S’il n’est pas spécifié, l’outil de recherche de fichiers utilise le auto ranker et une score_threshold de 0.
Pour plus d’informations, consultez la documentation de l’outil de recherche de fichiers .
Non

OpenAI.AssistantToolsFileSearchTypeOnly

Nom Type Descriptif Obligatoire Par défaut
type enum Le type d’outil défini : file_search
Valeurs possibles : file_search
Oui

OpenAI.AssistantToolsFunction

Nom Type Descriptif Obligatoire Par défaut
function OpenAI.FunctionObject Oui
type enum Le type d’outil défini : function
Valeurs possibles : function
Oui

OpenAI.AssistantsApiResponseFormatOption

Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106. Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. Apprenez-en davantage dans le paramètre pour { "type": "json_object" } activer le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide. Important :* lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.

Type : string ou OpenAI.ResponseFormatText ou OpenAI.ResponseFormatJsonObject ou OpenAI.ResponseFormatJsonSchema

Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106. Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. Apprenez-en davantage dans le paramètre pour { "type": "json_object" } activer le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide. Important :* lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.

OpenAI.AssistantsApiToolChoiceOption

Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outils et génère plutôt un message. auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils avant de répondre à l’utilisateur. La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.

Type : string ou OpenAI.AssistantsNamedToolChoice

Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outils et génère plutôt un message. auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils avant de répondre à l’utilisateur. La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.

OpenAI.AssistantsNamedToolChoice

Spécifie un outil que le modèle doit utiliser. Utilisez-le pour forcer le modèle à appeler un outil spécifique.

Nom Type Descriptif Obligatoire Par défaut
function OpenAI.AssistantsNamedToolChoiceFunction Non
type enum Type de l’outil. Si le type est function, le nom de la fonction doit être défini
Valeurs possibles : function, , code_interpreterfile_search
Oui

OpenAI.AssistantsNamedToolChoiceFunction

Nom Type Descriptif Obligatoire Par défaut
nom ficelle Oui

OpenAI.AudioTranscription

Nom Type Descriptif Obligatoire Par défaut
language ficelle La langue de l’audio d’entrée. Fourniture de la langue d’entrée dans
Format ISO-639-1 (par exemple en)
améliore la précision et la latence.
Non
modèle ficelle Modèle à utiliser pour la transcription. Les options actuelles sont whisper-1, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeet gpt-4o-transcribe-diarize. Utilisez gpt-4o-transcribe-diarize quand vous avez besoin d’une diarisation avec des étiquettes d’orateur. Non
prompt ficelle Texte facultatif pour guider le style du modèle ou continuer un audio précédent
Segment.
Pour whisper-1, l’invite est une liste de mots clés.
Pour gpt-4o-transcribe les modèles (à l’exclusion gpt-4o-transcribe-diarize), l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ».
Non

OpenAI.AutoChunkingStrategyRequestParam

Stratégie par défaut. Cette stratégie utilise actuellement un max_chunk_size_tokens de 800 et chunk_overlap_tokens de 400.

Nom Type Descriptif Obligatoire Par défaut
type enum A toujours la valeur auto.
Valeurs possibles : auto
Oui

OpenAI.Batch

Nom Type Descriptif Obligatoire Par défaut
cancelled_at entier Horodatage Unix (en secondes) pour lequel le lot a été annulé. Non
cancelling_at entier Horodatage Unix (en secondes) pour le démarrage de l’annulation du lot. Non
terminé_à entier Horodatage Unix (en secondes) pour la fin du lot. Non
fenêtre de finalisation ficelle Le délai d’exécution pendant lequel le lot doit être traité. Oui
date_de_création entier Horodatage Unix (en secondes) pour lequel le lot a été créé. Oui
endpoint ficelle Point de terminaison de l’API OpenAI utilisé par le lot. Oui
error_file_id ficelle ID du fichier contenant les sorties des requêtes avec des erreurs. Non
Erreurs OpenAI.BatchErrors Non
expired_at entier Horodatage Unix (en secondes) pour le moment où le lot a expiré. Non
expires_at entier Horodatage Unix (en secondes) pour l’expiration du lot. Non
failed_at entier Horodatage Unix (en secondes) pour lequel le lot a échoué. Non
finalizing_at entier Horodatage Unix (en secondes) pour le moment où le lot a commencé à finaliser. Non
id ficelle Oui
in_progress_at entier Horodatage Unix (en secondes) pour le traitement du traitement par lot. Non
input_file_id chaîne ou nulle Non
metadata OpenAI.Metadata ou null Non
modèle ficelle ID de modèle utilisé pour traiter le lot, par exemple gpt-5-2025-08-07. OpenAI
offre un large éventail de modèles avec différentes fonctionnalités, performances
caractéristiques et points de prix. Reportez-vous au modèle
guide
pour parcourir et comparer les modèles disponibles.
Non
objet enum Le type d’objet, qui est toujours batch.
Valeurs possibles : batch
Oui
identifiant_de_fichier_de_sortie ficelle ID du fichier contenant les sorties des requêtes exécutées avec succès. Non
nombre_de_requêtes OpenAI.BatchRequestCounts La requête compte pour différents états au sein du lot. Non
status enum État actuel du lot.
Valeurs possibles : validating, , failed, in_progressfinalizingcompletedexpired, , cancellingcancelled
Oui
usage OpenAI.BatchUsage Non
└input_tokens entier Oui
└ détails_des_jets_d'entrée OpenAI.BatchUsageInputTokensDetails Oui
└output_tokens entier Oui
└output_tokens_details OpenAI.BatchUsageOutputTokensDetails Oui
└total_tokens entier Oui

OpenAI.BatchError

Nom Type Descriptif Obligatoire Par défaut
code ficelle Un code d’erreur identifiant le type d’erreur. Non
line entier ou null Non
message ficelle Un message lisible par une personne, fournissant plus de détails sur l’erreur. Non
param chaîne ou nulle Non

OpenAI.BatchErrors

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.BatchError Non
objet ficelle Non

OpenAI.BatchRequestCounts

La requête compte pour différents états au sein du lot.

Nom Type Descriptif Obligatoire Par défaut
terminé entier Nombre de demandes qui ont été effectuées avec succès. Oui
a échoué entier Nombre de requêtes ayant échoué. Oui
total entier Nombre total de requêtes dans le lot. Oui

OpenAI.BatchUsage

Nom Type Descriptif Obligatoire Par défaut
input_tokens entier Oui
input_tokens_details OpenAI.BatchUsageInputTokensDetails Oui
output_tokens entier Oui
output_tokens_details OpenAI.BatchUsageOutputTokensDetails Oui
total_tokens entier Oui

OpenAI.BatchUsageInputTokensDetails

Nom Type Descriptif Obligatoire Par défaut
cached_tokens entier Oui

OpenAI.BatchUsageOutputTokensDetails

Nom Type Descriptif Obligatoire Par défaut
jetons_de_raisonnement entier Oui

OpenAI.ChatCompletionAllowedTools

Limite les outils disponibles pour le modèle à un ensemble prédéfini.

Nom Type Descriptif Obligatoire Par défaut
mode enum Limite les outils disponibles pour le modèle à un ensemble prédéfini.
auto permet au modèle de choisir parmi les outils autorisés et de générer un
.
required nécessite que le modèle appelle un ou plusieurs des outils autorisés.
Valeurs possibles : auto, required
Oui
outils tableau d’objet Liste des définitions d’outils que le modèle doit être autorisé à appeler.
Pour l’API De saisie semi-automatique de conversation, la liste des définitions d’outils peut ressembler à ceci :
json<br> [<br> { "type": "function", "function": { "name": "get_weather" } },<br> { "type": "function", "function": { "name": "get_time" } }<br> ]<br>
Oui

OpenAI.ChatCompletionAllowedToolsChoice

Limite les outils disponibles pour le modèle à un ensemble prédéfini.

Nom Type Descriptif Obligatoire Par défaut
outils_autorisés OpenAI.ChatCompletionAllowedTools Limite les outils disponibles pour le modèle à un ensemble prédéfini. Oui
type enum Type de configuration d’outil autorisé. A toujours la valeur allowed_tools.
Valeurs possibles : allowed_tools
Oui

OpenAI.ChatCompletionFunctionCallOption

La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

Nom Type Descriptif Obligatoire Par défaut
nom ficelle Nom de la fonction à appeler. Oui

OpenAI.ChatCompletionFunctions

Nom Type Descriptif Obligatoire Par défaut
descriptif ficelle Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. Non
nom ficelle Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. Oui
paramètres OpenAI.FunctionParameters Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Voir le guide pour des exemples, et la référence JSON Schema pour la documentation sur le format.
L’omission de parameters définit une fonction avec une liste de paramètres vide.
Non

OpenAI.ChatCompletionMessageCustomToolCall

Un appel à un outil personnalisé créé par le modèle.

Nom Type Descriptif Obligatoire Par défaut
coutume OpenAI.ChatCompletionMessageCustomToolCallCustom Oui
└─ Entrée ficelle Oui
└─ Nom ficelle Oui
id ficelle ID de l’appel de l’outil. Oui
type enum Type de l’outil. A toujours la valeur custom.
Valeurs possibles : custom
Oui

OpenAI.ChatCompletionMessageCustomToolCallCustom

Nom Type Descriptif Obligatoire Par défaut
entrée ficelle Oui
nom ficelle Oui

OpenAI.ChatCompletionMessageToolCall

Appel à un outil de fonction créé par le modèle.

Nom Type Descriptif Obligatoire Par défaut
function OpenAI.ChatCompletionMessageToolCallFunction Oui
└─ Arguments ficelle Oui
└─ Nom ficelle Oui
id ficelle ID de l’appel de l’outil. Oui
type enum Type de l’outil. Actuellement, seule function est prise en charge.
Valeurs possibles : function
Oui

OpenAI.ChatCompletionMessageToolCallChunk

Nom Type Descriptif Obligatoire Par défaut
function OpenAI.ChatCompletionMessageToolCallChunkFunction Non
id ficelle ID de l’appel de l’outil. Non
index entier Oui
type enum Type de l’outil. Actuellement, seule function est prise en charge.
Valeurs possibles : function
Non

OpenAI.ChatCompletionMessageToolCallChunkFunction

Nom Type Descriptif Obligatoire Par défaut
arguments ficelle Non
nom ficelle Non

OpenAI.ChatCompletionMessageToolCallFunction

Nom Type Descriptif Obligatoire Par défaut
arguments ficelle Oui
nom ficelle Oui

OpenAI.ChatCompletionMessageToolCalls

Appels d’outils générés par le modèle, par exemple les appels de fonction.

OpenAI.ChatCompletionMessageToolCallsItem

Appels d’outils générés par le modèle, par exemple les appels de fonction.

OpenAI.ChatCompletionNamedToolChoice

Spécifie un outil que le modèle doit utiliser. Utilisez-le pour forcer le modèle à appeler une fonction spécifique.

Nom Type Descriptif Obligatoire Par défaut
function OpenAI.ChatCompletionNamedToolChoiceFunction Oui
type enum Pour l’appel de fonction, le type est toujours function.
Valeurs possibles : function
Oui

OpenAI.ChatCompletionNamedToolChoiceCustom

Spécifie un outil que le modèle doit utiliser. Permet de forcer le modèle à appeler un outil personnalisé spécifique.

Nom Type Descriptif Obligatoire Par défaut
coutume OpenAI.ChatCompletionNamedToolChoiceCustomCustom Oui
type enum Pour les appels d’outils personnalisés, le type est toujours custom.
Valeurs possibles : custom
Oui

OpenAI.ChatCompletionNamedToolChoiceCustomCustom

Nom Type Descriptif Obligatoire Par défaut
nom ficelle Oui

OpenAI.ChatCompletionNamedToolChoiceFunction

Nom Type Descriptif Obligatoire Par défaut
nom ficelle Oui

OpenAI.ChatCompletionRequestAssistantMessage

Messages envoyés par le modèle en réponse aux messages utilisateur.

Nom Type Descriptif Obligatoire Par défaut
audio OpenAI.ChatCompletionRequestAssistantMessageAudio ou null Données relatives à une réponse audio précédente du modèle. Non
contenu chaîne ou tableau d’OpenAI.ChatCompletionRequestAssistantMessageContentPart ou null Non
function_call OpenAI.ChatCompletionRequestAssistantMessageFunctionCall ou null Non
nom ficelle Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. Non
refusal chaîne ou nulle Non
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas assistant.
Valeurs possibles : assistant
Oui
tool_calls OpenAI.ChatCompletionMessageToolCalls Appels d’outils générés par le modèle, par exemple les appels de fonction. Non

OpenAI.ChatCompletionRequestAssistantMessageAudio

Nom Type Descriptif Obligatoire Par défaut
id ficelle Oui

OpenAI.ChatCompletionRequestAssistantMessageContentPart

Discriminateur pour OpenAI.ChatCompletionRequestAssistantMessageContentPart

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
refusal OpenAI.ChatCompletionRequestMessageContentPartRefusal
text OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.ChatCompletionRequestAssistantMessageContentPartType Oui

OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText

Découvrez les entrées de texte.

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Contenu du texte. Oui
type enum Le type de la partie contenu.
Valeurs possibles : text
Oui

OpenAI.ChatCompletionRequestAssistantMessageContentPartType

Propriété Valeur
Type ficelle
Valeurs text
refusal

OpenAI.ChatCompletionRequestAssistantMessageFunctionCall

Nom Type Descriptif Obligatoire Par défaut
arguments ficelle Oui
nom ficelle Oui

OpenAI.ChatCompletionRequestDeveloperMessage

Instructions fournies par le développeur que le modèle doit suivre, quels que soient les messages envoyés par l’utilisateur. Avec les modèles o1 et versions ultérieures, les messages developer remplacent les messages system précédents.

Nom Type Descriptif Obligatoire Par défaut
contenu chaîne ou tableau d’OpenAI.ChatCompletionRequestMessageContentPartText Contenu du message du développeur. Oui
nom ficelle Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. Non
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas developer.
Valeurs possibles : developer
Oui

OpenAI.ChatCompletionRequestFunctionMessage

Nom Type Descriptif Obligatoire Par défaut
contenu chaîne ou nulle Oui
nom ficelle Nom de la fonction à appeler. Oui
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas function.
Valeurs possibles : function
Oui

OpenAI.ChatCompletionRequestMessage

Discriminant pour OpenAI.ChatCompletionRequestMessage

Ce composant utilise la propriété role pour faire la distinction entre différents types :

Valeur de type Schema
assistant OpenAI.ChatCompletionRequestAssistantMessage
developer OpenAI.ChatCompletionRequestDeveloperMessage
function OpenAI.ChatCompletionRequestFunctionMessage
system OpenAI.ChatCompletionRequestSystemMessage
user OpenAI.ChatCompletionRequestUserMessage
tool OpenAI.ChatCompletionRequestToolMessage
Nom Type Descriptif Obligatoire Par défaut
role OpenAI.ChatCompletionRequestMessageType Oui

OpenAI.ChatCompletionRequestMessageContentPartAudio

Nom Type Descriptif Obligatoire Par défaut
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio Oui
type enum Le type de la partie contenu. A toujours la valeur input_audio.
Valeurs possibles : input_audio
Oui

OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio

Nom Type Descriptif Obligatoire Par défaut
données ficelle Oui
format enum
Valeurs possibles : wav, mp3
Oui

OpenAI.ChatCompletionRequestMessageContentPartFile

Découvrez les entrées de fichier pour la génération de texte.

Nom Type Descriptif Obligatoire Par défaut
fichier OpenAI.ChatCompletionRequestMessageContentPartFileFile Oui
└─ données_fichier ficelle Non
└ file_id ficelle Non
Nom de fichier └> ficelle Non
type enum Le type de la partie contenu. A toujours la valeur file.
Valeurs possibles : file
Oui

OpenAI.ChatCompletionRequestMessageContentPartFileFile

Nom Type Descriptif Obligatoire Par défaut
file_data ficelle Non
identifiant_de_fichier ficelle Non
filename ficelle Non

OpenAI.ChatCompletionRequestMessageContentPartImage

Nom Type Descriptif Obligatoire Par défaut
image_url OpenAI.ChatCompletionRequestMessageContentPartImageUrl Oui
type enum Le type de la partie contenu.
Valeurs possibles : image_url
Oui

OpenAI.ChatCompletionRequestMessageContentPartImageUrl

Nom Type Descriptif Obligatoire Par défaut
detail enum
Valeurs possibles : auto, , lowhigh
Non
url ficelle Oui

OpenAI.ChatCompletionRequestMessageContentPartRefusal

Nom Type Descriptif Obligatoire Par défaut
refusal ficelle Message de refus généré par le modèle. Oui
type enum Le type de la partie contenu.
Valeurs possibles : refusal
Oui

OpenAI.ChatCompletionRequestMessageContentPartText

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Contenu du texte. Oui
type enum Le type de la partie contenu.
Valeurs possibles : text
Oui

OpenAI.ChatCompletionRequestMessageType

Propriété Valeur
Type ficelle
Valeurs developer
system
user
assistant
tool
function

OpenAI.ChatCompletionRequestSystemMessage

Instructions fournies par le développeur que le modèle doit suivre, quels que soient les messages envoyés par l’utilisateur. Avec les modèles o1 et les versions ultérieures, utilisez les messages developer pour cet effet à la place.

Nom Type Descriptif Obligatoire Par défaut
contenu chaîne ou tableau d’OpenAI.ChatCompletionRequestSystemMessageContentPart Contenu du message système. Oui
nom ficelle Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. Non
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas system.
Valeurs possibles : system
Oui

OpenAI.ChatCompletionRequestSystemMessageContentPart

Références : OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestToolMessage

Nom Type Descriptif Obligatoire Par défaut
contenu chaîne ou tableau d’OpenAI.ChatCompletionRequestToolMessageContentPart Contenu du message de l’outil. Oui
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas tool.
Valeurs possibles : tool
Oui
tool_call_id ficelle Appel d’outil auquel ce message répond. Oui

OpenAI.ChatCompletionRequestToolMessageContentPart

Références : OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestUserMessage

Messages envoyés par un utilisateur final, contenant des invites ou des informations de contexte supplémentaires.

Nom Type Descriptif Obligatoire Par défaut
contenu chaîne ou tableau d’OpenAI.ChatCompletionRequestUserMessageContentPart Contenu du message de l’utilisateur. Oui
nom ficelle Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. Non
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas user.
Valeurs possibles : user
Oui

OpenAI.ChatCompletionRequestUserMessageContentPart

Discriminateur pour OpenAI.ChatCompletionRequestUserMessageContentPart

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
image_url OpenAI.ChatCompletionRequestMessageContentPartImage
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudio
file OpenAI.ChatCompletionRequestMessageContentPartFile
text OpenAI.ChatCompletionRequestUserMessageContentPartChatCompletionRequestMessageContentPartText
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.ChatCompletionRequestUserMessageContentPartType Oui

OpenAI.ChatCompletionRequestUserMessageContentPartChatCompletionRequestMessageContentPartText

Découvrez les entrées de texte.

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Contenu du texte. Oui
type enum Le type de la partie contenu.
Valeurs possibles : text
Oui

OpenAI.ChatCompletionRequestUserMessageContentPartType

Propriété Valeur
Type ficelle
Valeurs text
image_url
input_audio
file

OpenAI.ChatCompletionResponseMessage

Si la modalité de sortie audio est demandée, cet objet contient des données sur la réponse audio du modèle.

Nom Type Descriptif Obligatoire Par défaut
annotations tableau d’OpenAI.ChatCompletionResponseMessageAnnotations Annotations pour le message, le cas échéant, comme lors de l’utilisation de
outil de recherche web.
Non
audio OpenAI.ChatCompletionResponseMessageAudio ou null Non
contenu chaîne ou nulle Oui
function_call OpenAI.ChatCompletionResponseMessageFunctionCall Non
└─ Arguments ficelle Oui
└─ Nom ficelle Oui
reasoning_content ficelle Propriété d’extension spécifique à Azure contenant le contenu de raisonnement généré à partir de modèles pris en charge. Non
refusal chaîne ou nulle Oui
role enum Rôle de l’auteur de ce message.
Valeurs possibles : assistant
Oui
tool_calls OpenAI.ChatCompletionMessageToolCallsItem Appels d’outils générés par le modèle, par exemple les appels de fonction. Non

OpenAI.ChatCompletionResponseMessageAnnotations

Nom Type Descriptif Obligatoire Par défaut
type enum
Valeurs possibles : url_citation
Oui
url_citation OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation Oui

OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation

Nom Type Descriptif Obligatoire Par défaut
end_index entier Oui
start_index entier Oui
title ficelle Oui
url ficelle Oui

OpenAI.ChatCompletionResponseMessageAudio

Nom Type Descriptif Obligatoire Par défaut
données ficelle Oui
expires_at entier Oui
id ficelle Oui
transcription ficelle Oui

OpenAI.ChatCompletionResponseMessageFunctionCall

Nom Type Descriptif Obligatoire Par défaut
arguments ficelle Oui
nom ficelle Oui

OpenAI.ChatCompletionStreamOptions

Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.

Nom Type Descriptif Obligatoire Par défaut
include_obfuscation booléen Lorsque la valeur est true, l’obfuscation de flux est activée. Ajouts d’obfuscation de flux
caractères aléatoires sur un obfuscation champ sur les événements delta de diffusion en continu vers
normalisez les tailles de charge utile en tant qu’atténuation de certaines attaques par canal latéral.
Ces champs d’obfuscation sont inclus par défaut, mais ajoutent une petite quantité
d’une surcharge sur le flux de données. Vous pouvez définir sur include_obfuscation
false pour optimiser la bande passante si vous approuvez les liens réseau entre
votre application et l’API OpenAI.
Non
include_usage booléen S’il est défini, un bloc supplémentaire sera diffusé en continu avant le data: [DONE]
. Le usage champ sur ce bloc affiche les statistiques d’utilisation des jetons
pour l’intégralité de la requête, et le choices champ sera toujours vide
un groupe.
Tous les autres blocs incluent également un usage champ, mais avec une valeur Null
valeur. NOTE: Si le flux est interrompu, il se peut que vous ne receviez pas tout.
segment d’utilisation final qui contient l’utilisation totale du jeton pour la requête.
Non

OpenAI.ChatCompletionStreamResponseDelta

Delta de complétion de conversation généré par les réponses de modèle diffusées en continu.

Nom Type Descriptif Obligatoire Par défaut
contenu chaîne ou nulle Non
function_call OpenAI.ChatCompletionStreamResponseDeltaFunctionCall Non
└─ Arguments ficelle Non
└─ Nom ficelle Non
reasoning_content ficelle Propriété d’extension spécifique à Azure contenant le contenu de raisonnement généré à partir de modèles pris en charge. Non
refusal chaîne ou nulle Non
role enum Rôle de l’auteur de ce message.
Valeurs possibles : developer, , systemuser, assistant,tool
Non
tool_calls tableau d’OpenAI.ChatCompletionMessageToolCallChunk Non

OpenAI.ChatCompletionStreamResponseDeltaFunctionCall

Nom Type Descriptif Obligatoire Par défaut
arguments ficelle Non
nom ficelle Non

OpenAI.ChatCompletionTokenLogprob

Nom Type Descriptif Obligatoire Par défaut
octets tableau d’entiers ou null Oui
logprob nombre La probabilité de journalisation de ce jeton, s’il se trouve dans les 20 jetons les plus probables. Sinon, la valeur -9999.0 est utilisée pour indiquer que le jeton est très peu probable. Oui
token ficelle Jeton. Oui
top_logprobs tableau d’OpenAI.ChatCompletionTokenLogprobTopLogprobs Liste des jetons les plus probables et de leur probabilité logarithmique, à cette position de jeton. Dans de rares cas, il peut y avoir moins que le nombre de top_logprobs demandées retournées. Oui

OpenAI.ChatCompletionTokenLogprobTopLogprobs

Nom Type Descriptif Obligatoire Par défaut
octets tableau d’entiers ou null Oui
logprob nombre Oui
token ficelle Oui

Outil de Complétion de Chat d'OpenAI

Outil de fonction qui peut être utilisé pour générer une réponse.

Nom Type Descriptif Obligatoire Par défaut
function OpenAI.FunctionObject Oui
type enum Type de l’outil. Actuellement, seule function est prise en charge.
Valeurs possibles : function
Oui

OpenAI.ChatCompletionToolChoiceOption

Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère plutôt un message. auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si des outils sont présents.

Type : string ou OpenAI.ChatCompletionAllowedToolsChoice ou OpenAI.ChatCompletionNamedToolChoice ou OpenAI.ChatCompletionNamedToolChoiceCustom

Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère plutôt un message. auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si des outils sont présents.

OpenAI.ChunkingStrategyRequestParam

Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide.

Discriminateur pour OpenAI.ChunkingStrategyRequestParam

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
auto OpenAI.AutoChunkingStrategyRequestParam
static OpenAI.StaticChunkingStrategyRequestParam
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.ChunkingStrategyRequestParamType Oui

OpenAI.ChunkingStrategyRequestParamType

Propriété Valeur
Type ficelle
Valeurs auto
static

OpenAI.ChunkingStrategyResponse

Stratégie utilisée pour segmenter le fichier.

Discriminateur pour OpenAI.ChunkingStrategyResponse

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
static OpenAI.StaticChunkingStrategyResponseParam
other OpenAI.OtherChunkingStrategyResponseParam
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.ChunkingStrategyResponseType Oui

OpenAI.ChunkingStrategyResponseType

Propriété Valeur
Type ficelle
Valeurs static
other

OpenAI.ClickButtonType

Propriété Valeur
Type ficelle
Valeurs left
right
wheel
back
forward

OpenAI.ClickParam

Action de clic.

Nom Type Descriptif Obligatoire Par défaut
Bouton OpenAI.ClickButtonType Oui
type enum Spécifie le type d’événement. Pour une action de clic, cette propriété est toujours click.
Valeurs possibles : click
Oui
x entier Coordonnée x où le clic s’est produit. Oui
y entier Coordonnée y où le clic s’est produit. Oui

OpenAI.CodeInterpreterContainerAuto

Configuration d’un conteneur d’interpréteur de code. Vous pouvez éventuellement spécifier les ID des fichiers pour exécuter le code.

Nom Type Descriptif Obligatoire Par défaut
identifiants_de_fichiers tableau de chaînes Une liste facultative de fichiers chargés à mettre au service de votre code. Non
limite_de_mémoire OpenAI.ContainerMemoryLimit ou null Non
type enum A toujours la valeur auto.
Valeurs possibles : auto
Oui

OpenAI.CodeInterpreterOutputImage

Sortie de l’image de l’interpréteur de code.

Nom Type Descriptif Obligatoire Par défaut
type enum Type de la sortie. A toujours la valeur image.
Valeurs possibles : image
Oui
url ficelle URL de la sortie de l’image à partir de l’interpréteur de code. Oui

OpenAI.CodeInterpreterOutputLogs

Sortie des journaux à partir de l’interpréteur de code.

Nom Type Descriptif Obligatoire Par défaut
logs ficelle Sortie des journaux à partir de l’interpréteur de code. Oui
type enum Type de la sortie. A toujours la valeur logs.
Valeurs possibles : logs
Oui

OpenAI.CodeInterpreterTool

Outil qui exécute du code Python afin d'aider à générer une réponse à une invite.

Nom Type Descriptif Obligatoire Par défaut
container string ou OpenAI.CodeInterpreterContainerAuto Conteneur de l’interpréteur de code. Il peut s’agir d’un ID de conteneur ou d’un objet qui
spécifie les ID de fichier chargés à mettre à la disposition de votre code, ainsi qu’un
paramètre facultatif memory_limit .
Oui
type enum Type de l’outil d’interpréteur de code. A toujours la valeur code_interpreter.
Valeurs possibles : code_interpreter
Oui

OpenAI.ComparisonFilter

Filtre utilisé pour comparer une clé d’attribut spécifiée à une valeur donnée à l’aide d’une opération de comparaison définie.

Nom Type Descriptif Obligatoire Par défaut
clé ficelle La clé à comparer avec la valeur. Oui
type enum Spécifie l’opérateur de comparaison : eq, ne, gt, gtelt, lte, , in, , . nin
- eq:Égale
- ne: non égal
- gt : plus grand que
- gte: supérieur ou égal à
- lt:moins de
- lte: inférieur ou égal à
- in:Dans
- nin: pas dans
Valeurs possibles : eq, , negt, gte, ltlte
Oui
valeur chaîne ou nombre ou booléen ou tableau d’OpenAI.ComparisonFilterValueItems Valeur à comparer à la clé d’attribut ; prend en charge les types chaîne, nombre ou booléen. Oui

OpenAI.ComparisonFilterValueItems

Ce schéma accepte l’un des types suivants :

  • chaîne de caractères
  • numéro

OpenAI.CompletionUsage

Statistiques d’utilisation pour la demande d’achèvement.

Nom Type Descriptif Obligatoire Par défaut
completion_tokens entier Nombre de jetons dans la complétion générée. Oui
completion_tokens_details OpenAI.CompletionUsageCompletionTokensDetails Non
└─ jetons_de_prédiction_acceptés entier Non
└audio_tokens entier Non
└─ jetons_de_raisonnement entier Non
└─ jetons_de_prédiction_rejetés entier Non
prompt_tokens entier Nombre de jetons dans l’invite. Oui
prompt_tokens_details OpenAI.CompletionUsagePromptTokensDetails Non
└audio_tokens entier Non
└cached_tokens entier Non
total_tokens entier Nombre total de jetons utilisés dans la requête (prompt + complétion). Oui

OpenAI.CompletionUsageCompletionTokensDetails

Nom Type Descriptif Obligatoire Par défaut
accepted_prediction_tokens entier Non
audio_tokens entier Non
jetons_de_raisonnement entier Non
rejected_prediction_tokens entier Non

OpenAI.CompletionUsagePromptTokensDetails

Nom Type Descriptif Obligatoire Par défaut
audio_tokens entier Non
cached_tokens entier Non

OpenAI.CompoundFilter

Combinez plusieurs filtres à l’aide and ou or.

Nom Type Descriptif Obligatoire Par défaut
filters tableau d’OpenAI.ComparisonFilter ou d’objet Tableau de filtres à combiner. Les éléments peuvent être ComparisonFilter ou CompoundFilter. Oui
type enum Type d’opération : and ou or.
Valeurs possibles : and, or
Oui

OpenAI.ComputerAction

Discriminant pour OpenAI.ComputerAction

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
click OpenAI.ClickParam
double_click OpenAI.DoubleClickAction
drag OpenAI.Drag
keypress OpenAI.KeyPressAction
move OpenAI.Move
screenshot OpenAI.Capture d’écran
scroll OpenAI.Scroll
type OpenAI.Type
wait OpenAI.Wait
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.ComputerActionType Oui

OpenAI.ComputerActionType

Propriété Valeur
Type ficelle
Valeurs click
double_click
drag
keypress
move
screenshot
scroll
type
wait

OpenAI.ComputerCallSafetyCheckParam

Une vérification de sécurité en attente pour l'appel informatique.

Nom Type Descriptif Obligatoire Par défaut
code chaîne ou nulle Non
id ficelle ID de la vérification de sécurité en attente. Oui
message chaîne ou nulle Non

OpenAI.ComputerEnvironment

Propriété Valeur
Type ficelle
Valeurs windows
mac
linux
ubuntu
browser

OpenAI.ComputerScreenshotContent

Capture d’écran d’un ordinateur.

Nom Type Descriptif Obligatoire Par défaut
identifiant_de_fichier chaîne ou nulle Oui
image_url chaîne ou nulle Oui
type enum Spécifie le type d’événement. Pour une capture d’écran d’ordinateur, cette propriété est toujours définie sur computer_screenshot.
Valeurs possibles : computer_screenshot
Oui

OpenAI.ComputerScreenshotImage

Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur.

Nom Type Descriptif Obligatoire Par défaut
identifiant_de_fichier ficelle Identificateur d’un fichier chargé qui contient la capture d’écran. Non
image_url ficelle URL de l’image de capture d’écran. Non
type enum Spécifie le type d’événement. Pour une capture d’écran d’ordinateur, cette propriété est
toujours défini sur computer_screenshot.
Valeurs possibles : computer_screenshot
Oui

OpenAI.ComputerUsePreviewTool

Outil qui contrôle un ordinateur virtuel.

Nom Type Descriptif Obligatoire Par défaut
hauteur_affichage entier Hauteur de l’affichage de l’ordinateur. Oui
largeur d'affichage entier Largeur de l’affichage de l’ordinateur. Oui
environment OpenAI.ComputerEnvironment Oui
type enum Type de l’outil d’utilisation de l’ordinateur. A toujours la valeur computer_use_preview.
Valeurs possibles : computer_use_preview
Oui

OpenAI.ContainerFileCitationBody

Une citation pour un fichier conteneur utilisé pour générer une réponse modèle.

Nom Type Descriptif Obligatoire Par défaut
container_id ficelle L’identifiant du fichier conteneur. Oui
end_index entier L’index du dernier caractère de la citation du fichier conteneur dans le message. Oui
identifiant_de_fichier ficelle ID du fichier. Oui
filename ficelle Le nom du fichier conteneur cité. Oui
start_index entier L’index du premier caractère de la citation du fichier conteneur dans le message. Oui
type enum Le type de citation du fichier conteneur. A toujours la valeur container_file_citation.
Valeurs possibles : container_file_citation
Oui

OpenAI.ContainerFileListResource

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.ContainerFileResource Liste des fichiers conteneur. Oui
premier_identifiant ficelle ID du premier fichier de la liste. Oui
has_more booléen Indique s’il existe d’autres fichiers disponibles. Oui
last_id ficelle ID du dernier fichier de la liste. Oui
objet enum Le type d’objet retourné doit être « list ».
Valeurs possibles : list
Oui

OpenAI.ContainerFileResource

Nom Type Descriptif Obligatoire Par défaut
octets entier Taille du fichier en octets. Oui
container_id ficelle Conteneur auquel appartient ce fichier. Oui
date_de_création entier Horodatage Unix (en secondes) lors de la création du fichier. Oui
id ficelle Identificateur unique du fichier. Oui
objet enum Type de cet objet (container.file).
Valeurs possibles : container.file
Oui
chemin ficelle Chemin d’accès du fichier dans le conteneur. Oui
source ficelle Source du fichier (par exemple, user, assistant). Oui

OpenAI.ContainerListResource

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.ContainerResource Liste des conteneurs. Oui
premier_identifiant ficelle ID du premier conteneur de la liste. Oui
has_more booléen Indique s’il existe d’autres conteneurs disponibles. Oui
last_id ficelle ID du dernier conteneur de la liste. Oui
objet enum Le type d’objet retourné doit être « list ».
Valeurs possibles : list
Oui

OpenAI.ContainerMemoryLimit

Propriété Valeur
Type ficelle
Valeurs 1g
4g
16g
64g

OpenAI.ContainerResource

Nom Type Descriptif Obligatoire Par défaut
date_de_création entier Horodatage Unix (en secondes) lors de la création du conteneur. Oui
expire_après OpenAI.ContainerResourceExpiresAfter Non
└─ Ancre enum
Valeurs possibles : last_active_at
Non
└' minutes entier Non
id ficelle Identificateur unique du conteneur. Oui
date_dernière_activité entier Timestamp Unix (en secondes) lorsque le conteneur a été actif pour la dernière fois. Non
limite_de_mémoire enum Limite de mémoire configurée pour le conteneur.
Valeurs possibles : 1g, , 4g16g,64g
Non
nom ficelle Nom du conteneur. Oui
objet ficelle Type de cet objet. Oui
status ficelle État du conteneur (par exemple, actif, supprimé). Oui

OpenAI.ContainerResourceExpiresAfter

Nom Type Descriptif Obligatoire Par défaut
anchor enum
Valeurs possibles : last_active_at
Non
compte-rendu entier Non

OpenAI.ConversationItem

Élément unique au sein d’une conversation. L’ensemble de types possibles est identique au output type d’un objet Response.

Discriminateur pour OpenAI.ConversationItem

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
message OpenAI.ConversationItemMessage
function_call OpenAI.ConversationItemFunctionToolCallResource
function_call_output OpenAI.ConversationItemFunctionToolCallOutputResource
file_search_call OpenAI.ConversationItemFileSearchToolCall
web_search_call OpenAI.ConversationItemWebSearchToolCall
image_generation_call OpenAI.ConversationItemImageGenToolCall
computer_call OpenAI.ConversationItemComputerToolCall
computer_call_output OpenAI.ConversationItemComputerToolCallOutputResource
reasoning OpenAI.ConversationItemReasoningItem
code_interpreter_call OpenAI.ConversationItemCodeInterpreterToolCall
local_shell_call OpenAI.ConversationItemLocalShellToolCall
local_shell_call_output OpenAI.ConversationItemLocalShellToolCallOutput
shell_call OpenAI.ConversationItemFunctionShellCall
shell_call_output OpenAI.ConversationItemFunctionShellCallOutput
apply_patch_call OpenAI.ConversationItemApplyPatchToolCall
apply_patch_call_output OpenAI.ConversationItemApplyPatchToolCallOutput
mcp_list_tools OpenAI.ConversationItemMcpListTools
mcp_approval_request OpenAI.ConversationItemMcpApprovalRequest
mcp_approval_response OpenAI.ConversationItemMcpApprovalResponseResource
mcp_call OpenAI.ConversationItemMcpToolCall
custom_tool_call OpenAI.ConversationItemCustomToolCall
custom_tool_call_output OpenAI.ConversationItemCustomToolCallOutput
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.ConversationItemType Oui

OpenAI.ConversationItemApplyPatchToolCall

Appel d’outil qui applique des différences de fichier en créant, supprimant ou mettant à jour des fichiers.

Nom Type Descriptif Obligatoire Par défaut
call_id ficelle L’ID unique de l’appel à l’outil de patch apply généré par le modèle. Oui
created_by ficelle ID de l’entité qui a créé cet appel d’outil. Non
id ficelle ID unique de l’appel de l’outil apply patch. Renseigné lorsque cet élément est retourné via l’API. Oui
opération OpenAI.ApplyPatchFileOperation Une des opérations create_file, delete_file ou update_file appliquées via apply_patch. Oui
└─ Type OpenAI.ApplyPatchFileOperationType Oui
status OpenAI.ApplyPatchCallStatus Oui
type enum Type de l’élément. A toujours la valeur apply_patch_call.
Valeurs possibles : apply_patch_call
Oui

OpenAI.ConversationItemApplyPatchToolCallOutput

Sortie émise par un appel d’outil de correctif d’application.

Nom Type Descriptif Obligatoire Par défaut
call_id ficelle L’ID unique de l’appel à l’outil de patch apply généré par le modèle. Oui
created_by ficelle ID de l’entité qui a créé cette sortie d’appel d’outil. Non
id ficelle ID unique de la sortie d’appel de l’outil appliquer le correctif. Renseigné lorsque cet élément est retourné via l’API. Oui
output chaîne ou nulle Non
status OpenAI.ApplyPatchCallOutputStatus Oui
type enum Type de l’élément. A toujours la valeur apply_patch_call_output.
Valeurs possibles : apply_patch_call_output
Oui

OpenAI.ConversationItemCodeInterpreterToolCall

Un appel d’outil pour exécuter du code.

Nom Type Descriptif Obligatoire Par défaut
code chaîne ou nulle Oui
container_id ficelle ID du conteneur utilisé pour exécuter le code. Oui
id ficelle ID unique de l’appel de l’outil interpréteur de code. Oui
sorties tableau d’OpenAI.CodeInterpreterOutputLogs ou OpenAI.CodeInterpreterOutputImage ou null Oui
status enum Le statut de l’appel de l’outil Interpréteur de code. Les valeurs acceptables sont : in_progress, completed, incomplete, interpreting et failed.
Valeurs possibles : in_progress, , completedincomplete, interpreting,failed
Oui
type enum Type de l’appel de l’outil interpréteur de code. A toujours la valeur code_interpreter_call.
Valeurs possibles : code_interpreter_call
Oui

OpenAI.ConversationItemComputerToolCall

Un appel d’outil à un outil d’utilisation d’ordinateur. Voir le guide d’utilisation ordinateur pour plus d’informations.

Nom Type Descriptif Obligatoire Par défaut
action OpenAI.ComputerAction Oui
call_id ficelle Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie. Oui
id ficelle ID unique de l’appel informatique. Oui
pending_safety_checks tableau d’OpenAI.ComputerCallSafetyCheckParam Les vérifications de sécurité en attente pour l'appel informatique. Oui
status enum État de l’élément. Un des in_progress, ou completed
incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.
Valeurs possibles : in_progress, , completedincomplete
Oui
type enum Type de l’appel d’ordinateur. A toujours la valeur computer_call.
Valeurs possibles : computer_call
Oui

OpenAI.ConversationItemComputerToolCallOutputResource

Nom Type Descriptif Obligatoire Par défaut
acknowledged_safety_checks tableau d’OpenAI.ComputerCallSafetyCheckParam Les vérifications de sécurité signalées par l’API qui ont été reconnues par le
développeur
Non
call_id ficelle L'identifiant de l’appel de l’outil informatique qui a produit la sortie. Oui
id ficelle Identifiant de la sortie de l'outil informatique utilisé. Non
output OpenAI.ComputerScreenshotImage Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur. Oui
status enum État de l’entrée de message. Un des in_progress, ou completed
incomplete. Rempli lorsque les éléments d’entrée sont retournés via l’API.
Valeurs possibles : in_progress, , completedincomplete
Non
type enum Type de sortie de l’appel de l’outil informatique. A toujours la valeur computer_call_output.
Valeurs possibles : computer_call_output
Oui

OpenAI.ConversationItemCustomToolCall

Un appel à un outil personnalisé créé par le modèle.

Nom Type Descriptif Obligatoire Par défaut
call_id ficelle Un identifiant utilisé pour associer cet appel d’outil personnalisé à une sortie d’appel d’outil. Oui
id ficelle L’ID unique de l’outil personnalisé s’appelle sur la plateforme OpenAI. Non
entrée ficelle L’entrée pour l’appel d’outil personnalisé généré par le modèle. Oui
nom ficelle Nom de l’outil personnalisé appelé. Oui
type enum Le type d’appel de l’outil personnalisé. A toujours la valeur custom_tool_call.
Valeurs possibles : custom_tool_call
Oui

OpenAI.ConversationItemCustomToolCallOutput

La sortie d’un appel d’outil personnalisé depuis votre code, renvoyée au modèle.

Nom Type Descriptif Obligatoire Par défaut
call_id ficelle L’identifiant de l’appel servait à associer cette sortie d’appel d’outil personnalisée à un appel d’outil personnalisé. Oui
id ficelle L’identifiant unique de la sortie d’appel d’outil personnalisé sur la plateforme OpenAI. Non
output chaîne ou tableau d’OpenAI.FunctionAndCustomToolCallOutput La sortie de l’appel d’outil personnalisé généré par votre code.
Il peut s’agir d’une chaîne ou d’une liste de contenu de sortie.
Oui
type enum Le type de sortie de l’appel d’outil personnalisé. A toujours la valeur custom_tool_call_output.
Valeurs possibles : custom_tool_call_output
Oui

OpenAI.ConversationItemFileSearchToolCall

Résultats d’un appel d’outil de recherche de fichiers. Consultez le guide de recherche fichier pour plus d’informations.

Nom Type Descriptif Obligatoire Par défaut
id ficelle ID unique de l’appel de l’outil de recherche de fichiers. Oui
queries tableau de chaînes Requêtes utilisées pour rechercher des fichiers. Oui
results tableau d’OpenAI.FileSearchToolCallResults ou null Non
status enum État de l'accès à l’outil de recherche de fichiers. Valeurs possibles : in_progress,
searching, incomplete, ou failed
Valeurs possibles : in_progress, , searchingcompleted, incomplete,failed
Oui
type enum Type de l’appel de l’outil de recherche de fichiers. A toujours la valeur file_search_call.
Valeurs possibles : file_search_call
Oui

OpenAI.ConversationItemFunctionShellCall

Appel d’outil qui exécute une ou plusieurs commandes shell dans un environnement managé.

Nom Type Descriptif Obligatoire Par défaut
action OpenAI.FunctionShellAction Exécutez une commande shell. Oui
Commandes └ ; tableau de chaînes Oui
└max_output_length entier ou null Oui
└timeout_ms entier ou null Oui
call_id ficelle L’ID unique de l’appel de l’outil shell généré par le modèle. Oui
created_by ficelle ID de l’entité qui a créé cet appel d’outil. Non
id ficelle ID unique de l’appel de l’outil shell. Renseigné lorsque cet élément est retourné via l’API. Oui
status OpenAI.LocalShellCallStatus Oui
type enum Type de l’élément. A toujours la valeur shell_call.
Valeurs possibles : shell_call
Oui

OpenAI.ConversationItemFunctionShellCallOutput

Sortie d’un appel d’outil shell émis.

Nom Type Descriptif Obligatoire Par défaut
call_id ficelle L’ID unique de l’appel de l’outil shell généré par le modèle. Oui
created_by ficelle Identificateur de l’acteur qui a créé l’élément. Non
id ficelle ID unique de la sortie de l’appel d’interpréteur de commandes. Renseigné lorsque cet élément est retourné via l’API. Oui
max_output_length entier ou null Oui
output tableau d’OpenAI.FunctionShellCallOutputContent Tableau de contenu de sortie d’appel d’interpréteur de commandes Oui
type enum Type de sortie de l’appel d’interpréteur de commandes. A toujours la valeur shell_call_output.
Valeurs possibles : shell_call_output
Oui

OpenAI.ConversationItemFunctionToolCallOutputResource

Nom Type Descriptif Obligatoire Par défaut
call_id ficelle ID unique de l’appel de l’outil fonctionnel généré par le modèle. Oui
id ficelle Identifiant unique de l'appel de sortie de l'outil fonctionnel. Renseigné lorsque cet élément est renseigné
est retourné via l’API.
Non
output chaîne ou tableau d’OpenAI.FunctionAndCustomToolCallOutput Sortie de l’appel de fonction généré par votre code.
Il peut s’agir d’une chaîne ou d’une liste de contenu de sortie.
Oui
status enum État de l’élément. Un des in_progress, ou completed
incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.
Valeurs possibles : in_progress, , completedincomplete
Non
type enum Type d'appel de sortie de l'outil de fonctionnel. A toujours la valeur function_call_output.
Valeurs possibles : function_call_output
Oui

OpenAI.ConversationItemFunctionToolCallResource

Nom Type Descriptif Obligatoire Par défaut
arguments ficelle Chaîne JSON des arguments à passer à la fonction. Oui
call_id ficelle ID unique de l’appel de l’outil fonctionnel généré par le modèle. Oui
id ficelle Identifiant unique de l'appel de l'outil fonctionnel. Non
nom ficelle Nom de la fonction à exécuter. Oui
status enum État de l’élément. Un des in_progress, ou completed
incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.
Valeurs possibles : in_progress, , completedincomplete
Non
type enum Type d'appel de l'outil fonctionnel. A toujours la valeur function_call.
Valeurs possibles : function_call
Oui

OpenAI.ConversationItemImageGenToolCall

Demande de génération d’image effectuée par le modèle.

Nom Type Descriptif Obligatoire Par défaut
id ficelle L’identifiant unique de l’appel de génération d’image. Oui
résultat chaîne ou nulle Oui
status enum L’état de l’appel de génération d’images.
Valeurs possibles : in_progress, , completedgenerating,failed
Oui
type enum Le type d’appel de génération d’image. A toujours la valeur image_generation_call.
Valeurs possibles : image_generation_call
Oui

OpenAI.ConversationItemList

Liste des éléments de conversation.

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.ConversationItem Liste des éléments de conversation. Oui
premier_identifiant ficelle ID du premier élément de la liste. Oui
has_more booléen Indique s’il existe d’autres éléments disponibles. Oui
last_id ficelle ID du dernier élément de la liste. Oui
objet enum Le type d’objet retourné doit être list.
Valeurs possibles : list
Oui

OpenAI.ConversationItemLocalShellToolCall

Appel d’outil pour exécuter une commande sur l’interpréteur de commandes local.

Nom Type Descriptif Obligatoire Par défaut
action OpenAI.LocalShellExecAction Exécutez une commande shell sur le serveur. Oui
call_id ficelle ID unique de l’appel de l’outil shell local généré par le modèle. Oui
id ficelle L’identifiant unique de l’appel local de shell. Oui
status enum L’état de l’appel local de coquillage.
Valeurs possibles : in_progress, , completedincomplete
Oui
type enum Le type de l’appel local de la coquille. A toujours la valeur local_shell_call.
Valeurs possibles : local_shell_call
Oui

OpenAI.ConversationItemLocalShellToolCallOutput

Sortie d’un appel d’outil shell local.

Nom Type Descriptif Obligatoire Par défaut
id ficelle ID unique de l’appel de l’outil shell local généré par le modèle. Oui
output ficelle Chaîne JSON de la sortie de l’appel de l’outil shell local. Oui
status chaîne ou nulle Non
type enum Le type de sortie de l’outil local de shell. A toujours la valeur local_shell_call_output.
Valeurs possibles : local_shell_call_output
Oui

OpenAI.ConversationItemMcpApprovalRequest

Demande d'approbation humaine pour l'invocation d'un outil.

Nom Type Descriptif Obligatoire Par défaut
arguments ficelle Chaîne JSON d’arguments pour l’outil. Oui
id ficelle L’identifiant unique de la demande d’approbation. Oui
nom ficelle Nom de l’outil à exécuter. Oui
server_label ficelle Étiquette du serveur MCP effectuant la requête. Oui
type enum Type de l’élément. A toujours la valeur mcp_approval_request.
Valeurs possibles : mcp_approval_request
Oui

OpenAI.ConversationItemMcpApprovalResponseResource

Une réponse à une requête d’approbation de MCP.

Nom Type Descriptif Obligatoire Par défaut
approval_request_id ficelle L’ID de la requête d’approbation à laquelle on répond. Oui
Approuver booléen Indique si la demande a été approuvée. Oui
id ficelle ID unique de la réponse d’approbation Oui
reason chaîne ou nulle Non
type enum Type de l’élément. A toujours la valeur mcp_approval_response.
Valeurs possibles : mcp_approval_response
Oui

OpenAI.ConversationItemMcpListTools

Liste des outils disponibles sur un serveur MCP.

Nom Type Descriptif Obligatoire Par défaut
erreur chaîne ou nulle Non
id ficelle L’identifiant unique de la liste. Oui
server_label ficelle Étiquette du serveur MCP. Oui
outils tableau d’OpenAI.MCPListToolsTools Outils disponibles sur le serveur. Oui
type enum Type de l’élément. A toujours la valeur mcp_list_tools.
Valeurs possibles : mcp_list_tools
Oui

OpenAI.ConversationItemMcpToolCall

Appel d’un outil sur un serveur MCP.

Nom Type Descriptif Obligatoire Par défaut
approval_request_id chaîne ou nulle Non
arguments ficelle Chaîne JSON des arguments passés à l’outil. Oui
erreur chaîne ou nulle Non
id ficelle L’ID unique de l’outil appelle. Oui
nom ficelle Le nom de l’outil qui a été exécuté. Oui
output chaîne ou nulle Non
server_label ficelle Étiquette du serveur MCP exécutant l’outil. Oui
status OpenAI.MCPToolCallStatus Non
type enum Type de l’élément. A toujours la valeur mcp_call.
Valeurs possibles : mcp_call
Oui

OpenAI.ConversationItemMessage

Message vers ou depuis le modèle.

Nom Type Descriptif Obligatoire Par défaut
contenu tableau d’OpenAI.InputTextContent ou OpenAI.OutputTextContent ou OpenAI.TextContent ou OpenAI.SummaryTextContent ou OpenAI.ReasoningTextContent ou OpenAI.RefusalContent ou OpenAI.InputImageContent ou OpenAI.ComputerScreenshotContent ou OpenAI.InputFileContent Contenu du message Oui
id ficelle ID unique du message. Oui
role OpenAI.MessageRole Oui
status OpenAI.MessageStatus Oui
type enum Type du message. Toujours défini sur message.
Valeurs possibles : message
Oui

OpenAI.ConversationItemReasoningItem

Description de la chaîne de pensée utilisée par un modèle de raisonnement lors de la génération d’une réponse. Assurez-vous d’inclure ces éléments dans votre input de l’API Réponses pour les tours suivants d’une conversation si vous gérez manuellement context.

Nom Type Descriptif Obligatoire Par défaut
contenu tableau d’OpenAI.ReasoningTextContent Contenu texte de raisonnement. Non
encrypted_content chaîne ou nulle Non
id ficelle Identificateur unique du contenu du raisonnement. Oui
status enum État de l’élément. Un des in_progress, ou completed
incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.
Valeurs possibles : in_progress, , completedincomplete
Non
summary tableau d’OpenAI.Summary Résumé du raisonnement. Oui
type enum Type de l’objet. A toujours la valeur reasoning.
Valeurs possibles : reasoning
Oui

OpenAI.ConversationItemType

Propriété Valeur
Type ficelle
Valeurs message
function_call
function_call_output
file_search_call
web_search_call
image_generation_call
computer_call
computer_call_output
reasoning
code_interpreter_call
local_shell_call
local_shell_call_output
shell_call
shell_call_output
apply_patch_call
apply_patch_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call
custom_tool_call
custom_tool_call_output

OpenAI.ConversationItemWebSearchToolCall

Les résultats d’un appel d’un outil de recherche Web. Consultez le guide recherche web pour plus d’informations.

Nom Type Descriptif Obligatoire Par défaut
action OpenAI.WebSearchActionSearch ouOpenAI.WebSearchActionOpenPage ou OpenAI.WebSearchActionFind Objet décrivant l’action spécifique effectuée dans cet appel de recherche Web.
Comprend des détails sur la façon dont le modèle a utilisé le Web (rechercher, open_page, trouver).
Oui
id ficelle L’identifiant unique de l’outil de recherche web appelle. Oui
status enum L’état de l’appel d’outil de recherche web.
Valeurs possibles : in_progress, , searchingcompleted,failed
Oui
type enum Le type de l’outil de recherche web appelé. A toujours la valeur web_search_call.
Valeurs possibles : web_search_call
Oui

OpenAI.ConversationParam

Conversation à laquelle cette réponse appartient. Les éléments de cette conversation sont ajoutés à input_items cette demande de réponse. Les éléments d’entrée et les éléments de sortie de cette réponse sont automatiquement ajoutés à cette conversation une fois cette réponse terminée.

Type : chaîne ou OpenAI.ConversationParam-2

Conversation à laquelle cette réponse appartient. Les éléments de cette conversation sont ajoutés à input_items cette demande de réponse. Les éléments d’entrée et les éléments de sortie de cette réponse sont automatiquement ajoutés à cette conversation une fois cette réponse terminée.

OpenAI.ConversationParam-2

Conversation à laquelle cette réponse appartient.

Nom Type Descriptif Obligatoire Par défaut
id ficelle ID unique de la conversation. Oui

OpenAI.ConversationReference

Conversation à laquelle cette réponse appartient. Les éléments d’entrée et les éléments de sortie de cette réponse ont été automatiquement ajoutés à cette conversation.

Nom Type Descriptif Obligatoire Par défaut
id ficelle ID unique de la conversation à laquelle cette réponse a été associée. Oui

OpenAI.ConversationResource

Nom Type Descriptif Obligatoire Par défaut
date_de_création entier Heure à laquelle la conversation a été créée, mesurée en secondes depuis l’époque Unix. Oui
id ficelle ID unique de la conversation. Oui
metadata Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.
Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Oui
objet enum Le type d’objet, qui est toujours conversation.
Valeurs possibles : conversation
Oui

OpenAI.CreateChatCompletionRequestAudio

Nom Type Descriptif Obligatoire Par défaut
format enum
Valeurs possibles : wav, , aacmp3, flac, opuspcm16
Oui
voice OpenAI.VoiceIdsShared Oui

OpenAI.CreateChatCompletionRequestResponseFormat

Objet spécifiant le format que le modèle doit générer. Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées. Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.

Discriminateur pour OpenAI.CreateChatCompletionRequestResponseFormat

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
json_schema OpenAI.ResponseFormatJsonSchema
text OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatText
json_object OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatJsonObject
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.CreateChatCompletionRequestResponseFormatType Oui

OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatJsonObject

Format de réponse d’objet JSON. Méthode plus ancienne de génération de réponses JSON. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. Notez que le modèle ne génère pas de JSON sans message système ou utilisateur lui demandant de le faire.

Nom Type Descriptif Obligatoire Par défaut
type enum Type de format de réponse défini. A toujours la valeur json_object.
Valeurs possibles : json_object
Oui

OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatText

Format de réponse par défaut. Utilisé pour générer des réponses de texte.

Nom Type Descriptif Obligatoire Par défaut
type enum Type de format de réponse défini. A toujours la valeur text.
Valeurs possibles : text
Oui

OpenAI.CreateChatCompletionRequestResponseFormatType

Propriété Valeur
Type ficelle
Valeurs text
json_schema
json_object

OpenAI.CreateChatCompletionResponseChoices

Nom Type Descriptif Obligatoire Par défaut
content_filter_results AzureContentFilterResultForChoice Résultat d’un filtre de contenu pour un élément de réponse unique produit par un système d’INTELLIGENCE artificielle générative. Non
finish_reason enum
Valeurs possibles : stop, , lengthtool_calls, content_filter,function_call
Oui
index entier Oui
logprobs OpenAI.CreateChatCompletionResponseChoicesLogprobs ou null Oui
message OpenAI.ChatCompletionResponseMessage Si la modalité de sortie audio est demandée, cet objet contient des données
à propos de la réponse audio du modèle.
Oui

OpenAI.CreateChatCompletionResponseChoicesLogprobs

Nom Type Descriptif Obligatoire Par défaut
contenu tableau d’OpenAI.ChatCompletionTokenLogprob ou null Oui
refusal tableau d’OpenAI.ChatCompletionTokenLogprob ou null Oui

OpenAI.CreateChatCompletionStreamResponseChoices

Nom Type Descriptif Obligatoire Par défaut
delta OpenAI.ChatCompletionStreamResponseDelta Delta de complétion de conversation généré par les réponses de modèle diffusées en continu. Oui
finish_reason chaîne ou nulle Oui
index entier Oui
logprobs OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs ou null Non

OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs

Nom Type Descriptif Obligatoire Par défaut
contenu tableau d’OpenAI.ChatCompletionTokenLogprob ou null Oui
refusal tableau d’OpenAI.ChatCompletionTokenLogprob ou null Oui

OpenAI.CreateCompletionResponseChoices

Nom Type Descriptif Obligatoire Par défaut
content_filter_results AzureContentFilterResultForChoice Résultat d’un filtre de contenu pour un élément de réponse unique produit par un système d’INTELLIGENCE artificielle générative. Non
finish_reason enum
Valeurs possibles : stop, , lengthcontent_filter
Oui
index entier Oui
logprobs OpenAI.CreateCompletionResponseChoicesLogprobs ou null Oui
texte ficelle Oui

OpenAI.CreateCompletionResponseChoicesLogprobs

Nom Type Descriptif Obligatoire Par défaut
text_offset tableau d’entiers Non
token_logprobs tableau de nombres Non
tokens tableau de chaînes Non
top_logprobs tableau d’objet Non

OpenAI.CreateContainerBody

Nom Type Descriptif Obligatoire Par défaut
expire_après OpenAI.CreateContainerBodyExpiresAfter Non
└─ Ancre enum
Valeurs possibles : last_active_at
Oui
└' minutes entier Oui
identifiants_de_fichiers tableau de chaînes ID de fichiers à copier dans le conteneur. Non
limite_de_mémoire enum Limite de mémoire facultative pour le conteneur. La valeur par défaut est « 1g ».
Valeurs possibles : 1g, , 4g16g,64g
Non
nom ficelle Nom du conteneur à créer. Oui

OpenAI.CreateContainerBodyExpiresAfter

Nom Type Descriptif Obligatoire Par défaut
anchor enum
Valeurs possibles : last_active_at
Oui
compte-rendu entier Oui

OpenAI.CreateContainerFileBody

Nom Type Descriptif Obligatoire Par défaut
fichier Objet File (et non nom de fichier) à charger. Non
identifiant_de_fichier ficelle Nom du fichier à créer. Non

OpenAI.CreateConversationBody

Nom Type Descriptif Obligatoire Par défaut
Éléments tableau d’OpenAI.InputItem ou null Non
metadata OpenAI.Metadata ou null Non

OpenAI.CreateConversationItemsParametersBody

Nom Type Descriptif Obligatoire Par défaut
Éléments tableau d’OpenAI.InputItem Oui

OpenAI.CreateEmbeddingRequest

Nom Type Descriptif Obligatoire Par défaut
dimensions entier Nombre de dimensions que les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs.
Contraintes : min : 1
Non
encoding_format enum Format dans lequel retourner les incorporations. La valeur peut être float ou base64.
Valeurs possibles : float, base64
Non
entrée chaîne ou tableau de chaîne ou tableau d’entiers ou de tableaux de tableau Texte d’entrée à incorporer, encodé en tant que chaîne ou tableau de jetons. Pour incorporer plusieurs entrées dans une seule requête, transmettez un tableau de chaînes ou de tableaux de jetons. L’entrée ne doit pas dépasser les jetons d’entrée max pour le modèle (8 192 jetons pour tous les modèles d’incorporation), ne peut pas être une chaîne vide, et tout tableau doit être de 2 048 dimensions ou moins. Exemple de code Python pour le comptage de jetons. Outre la limite de jetons par entrée, tous les modèles d’incorporation appliquent un maximum de 300 000 jetons additionnés sur toutes les entrées dans une seule requête. Oui
modèle ficelle ID du modèle à utiliser. Vous pouvez utiliser l’API Des modèles de liste pour afficher tous vos modèles disponibles ou voir notre vue d’ensemble du modèle pour obtenir des descriptions. Oui
utilisateur ficelle En savoir plus. Non

OpenAI.CreateEmbeddingResponse

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.Embedding Liste des incorporations générées par le modèle. Oui
modèle ficelle Nom du modèle utilisé pour générer l’incorporation. Oui
objet enum Type d’objet, qui est toujours « list ».
Valeurs possibles : list
Oui
usage OpenAI.CreateEmbeddingResponseUsage Oui
└prompt_tokens entier Oui
└total_tokens entier Oui

OpenAI.CreateEmbeddingResponseUsage

Nom Type Descriptif Obligatoire Par défaut
prompt_tokens entier Oui
total_tokens entier Oui

OpenAI.CreateEvalCompletionsRunDataSource

Objet CompletionsRunDataSource décrivant une configuration d’échantillonnage de modèle.

Nom Type Descriptif Obligatoire Par défaut
messages_d'entrée OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate ou OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference Utilisé lors de l’échantillonnage à partir d’un modèle. Dicte la structure des messages passés dans le modèle. Peut être une référence à une trajectoire prédéfinie (par exemple, item.input_trajectoryou un modèle avec des références de variable à l’espace item de noms). Non
modèle ficelle Nom du modèle à utiliser pour générer des achèvements (par exemple « o3-mini »). Non
paramètres d'échantillonnage AzureCompletionsSamplingParams Paramètres d’échantillonnage pour contrôler le comportement des achèvements. Non
source OpenAI.EvalJsonlFileContentSource ou OpenAI.EvalJsonlFileIdSource ou OpenAI.EvalStoredCompletionsSource Détermine ce qui remplit l’espace item de noms dans la source de données de cette exécution. Oui
type enum Type de source de données d’exécution. A toujours la valeur completions.
Valeurs possibles : completions
Oui

OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference

Nom Type Descriptif Obligatoire Par défaut
item_reference ficelle Oui
type enum
Valeurs possibles : item_reference
Oui

OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate

Nom Type Descriptif Obligatoire Par défaut
modèle tableau d’OpenAI.EasyInputMessage ou OpenAI.EvalItem Oui
type enum
Valeurs possibles : template
Oui

OpenAI.CreateEvalCompletionsRunDataSourceSamplingParams

Nom Type Descriptif Obligatoire Par défaut
max_completion_tokens entier Non
effort de raisonnement OpenAI.ReasoningEffort Limite l’effort sur le raisonnement pour
les modèles de raisonnement.
Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduire
l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés
le raisonnement dans une réponse.
- gpt-5.1 nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.
- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.
- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.
- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max.
Non
format_de_réponse OpenAI.ResponseFormatText ou OpenAI.ResponseFormatJsonSchema ou OpenAI.ResponseFormatJsonObject Non
seed entier Une valeur initiale initialise la randomité pendant l’échantillonnage. Non 42
température nombre Une température plus élevée augmente l'aléa des résultats. Non 1
outils tableau d’OpenAI.ChatCompletionTool Non
top_p nombre Alternative à la température pour l'échantillonnage de noyau ; 1.0 inclut tous les éléments. Non 1

OpenAI.CreateEvalCustomDataSourceConfig

Objet CustomDataSourceConfig qui définit le schéma de la source de données utilisée pour les exécutions d’évaluation. Ce schéma est utilisé pour définir la forme des données qui seront :

  • Utilisé pour définir vos critères de test et
  • Quelles données sont requises lors de la création d’une exécution
Nom Type Descriptif Obligatoire Par défaut
inclure_exemple_schéma booléen Indique si l’évaluation doit s’attendre à ce que vous remplissiez l’espace de noms d’exemple (par exemple, en générant des réponses à partir de votre source de données) Non
item_schema objet Schéma json pour chaque ligne de la source de données. Oui
type enum Le type de source de données. A toujours la valeur custom.
Valeurs possibles : custom
Oui

OpenAI.CreateEvalItem

Message de conversation qui compose l’invite ou le contexte. Peut inclure des références de variables à l’espace de noms item, par exemple {{item.name}}.

Nom Type Descriptif Obligatoire Par défaut
contenu ficelle Contenu du message. Oui
role ficelle Rôle du message (par exemple , « system », « assistant », « user »). Oui

OpenAI.CreateEvalJsonlRunDataSource

Un objet JsonlRunDataSource spécifiant un fichier JSONL qui correspond à l'évaluation

Nom Type Descriptif Obligatoire Par défaut
source OpenAI.EvalJsonlFileContentSource ou OpenAI.EvalJsonlFileIdSource Détermine ce qui remplit l’espace item de noms dans la source de données. Oui
type enum Le type de source de données. A toujours la valeur jsonl.
Valeurs possibles : jsonl
Oui

OpenAI.CreateEvalLabelModelGrader

Objet LabelModelGrader qui utilise un modèle pour affecter des étiquettes à chaque élément de l’évaluation.

Nom Type Descriptif Obligatoire Par défaut
entrée tableau d’OpenAI.CreateEvalItem Liste des messages de conversation formant l’invite ou le contexte. Peut inclure des références de variables à l’espace de noms item, par exemple {{item.name}}. Oui
labels tableau de chaînes Étiquettes à classer sur chaque élément de l’évaluation. Oui
modèle ficelle Modèle à utiliser pour l’évaluation. Doit prendre en charge les sorties structurées. Oui
nom ficelle Nom du correcteur. Oui
passing_labels tableau de chaînes Étiquettes qui indiquent un résultat de passage. Doit être un sous-ensemble d’étiquettes. Oui
type enum Le type d’objet, qui est toujours label_model.
Valeurs possibles : label_model
Oui

OpenAI.CreateEvalLogsDataSourceConfig

Configuration de source de données qui spécifie la propriété de métadonnées de votre requête de journaux d’activité. Il s’agit généralement de métadonnées telles que usecase=chatbot ou prompt-version=v2, etc.

Nom Type Descriptif Obligatoire Par défaut
metadata objet Filtres de métadonnées pour la source de données des journaux. Non
type enum Le type de source de données. A toujours la valeur logs.
Valeurs possibles : logs
Oui

OpenAI.CreateEvalResponsesRunDataSource

Objet ResponsesRunDataSource décrivant une configuration d’échantillonnage de modèle.

Nom Type Descriptif Obligatoire Par défaut
messages_d'entrée OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate ou OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference Utilisé lors de l’échantillonnage à partir d’un modèle. Dicte la structure des messages passés dans le modèle. Peut être une référence à une trajectoire prédéfinie (par exemple, item.input_trajectoryou un modèle avec des références de variable à l’espace item de noms). Non
modèle ficelle Nom du modèle à utiliser pour générer des achèvements (par exemple « o3-mini »). Non
paramètres d'échantillonnage AzureResponsesSamplingParams Paramètres d’échantillonnage pour contrôler le comportement des réponses. Non
source OpenAI.EvalJsonlFileContentSource ou OpenAI.EvalJsonlFileIdSource ou OpenAI.EvalResponsesSource Détermine ce qui remplit l’espace item de noms dans la source de données de cette exécution. Oui
type enum Type de source de données d’exécution. A toujours la valeur responses.
Valeurs possibles : responses
Oui

OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference

Nom Type Descriptif Obligatoire Par défaut
item_reference ficelle Oui
type enum
Valeurs possibles : item_reference
Oui

OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate

Nom Type Descriptif Obligatoire Par défaut
modèle tableau d’objet ou OpenAI.EvalItem Oui
type enum
Valeurs possibles : template
Oui

OpenAI.CreateEvalResponsesRunDataSourceSamplingParams

Nom Type Descriptif Obligatoire Par défaut
effort de raisonnement OpenAI.ReasoningEffort Limite l’effort sur le raisonnement pour
les modèles de raisonnement.
Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduire
l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés
le raisonnement dans une réponse.
- gpt-5.1 nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.
- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.
- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.
- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max.
Non
seed entier Une valeur initiale initialise la randomité pendant l’échantillonnage. Non 42
température nombre Une température plus élevée augmente l'aléa des résultats. Non 1
texte OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText Non
outils tableau d’OpenAI.Tool Non
top_p nombre Alternative à la température pour l'échantillonnage de noyau ; 1.0 inclut tous les éléments. Non 1

OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText

Nom Type Descriptif Obligatoire Par défaut
format OpenAI.TextResponseFormatConfiguration Objet spécifiant le format que le modèle doit générer.
La configuration de { "type": "json_schema" } active les sorties structurées,
qui garantit que le modèle correspondra à votre schéma JSON fourni. Apprenez-en davantage dans le

Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.
*Non recommandé pour gpt-4o et les modèles plus récents :**
Activer { "type": "json_object" } permet de passer au mode JSON plus ancien, qui
garantit que le message généré par le modèle est json valide. Utilisation de json_schema
La solution est préférée pour les modèles qui la prennent en charge.
Non

OpenAI.CreateEvalRunRequest

Nom Type Descriptif Obligatoire Par défaut
source de données OpenAI.CreateEvalJsonlRunDataSource ou OpenAI.CreateEvalCompletionsRunDataSource ou OpenAI.CreateEvalResponsesRunDataSource Détails sur la source de données de l’exécution. Oui
metadata OpenAI.Metadata ou null Non
nom ficelle Nom de l’exécution. Non

OpenAI.CreateEvalStoredCompletionsDataSourceConfig

Déconseillé en faveur de LogsDataSourceConfig.

Nom Type Descriptif Obligatoire Par défaut
metadata objet Filtres de métadonnées pour la source de données de saisie semi-automatique stockée. Non
type enum Le type de source de données. A toujours la valeur stored_completions.
Valeurs possibles : stored_completions
Oui

OpenAI.CreateFileRequest

Nom Type Descriptif Obligatoire Par défaut
expire_après objet Oui
└─ Ancre AzureFileExpiryAnchor Oui
└ secondes entier Oui
fichier Objet File (et non nom de fichier) à charger. Oui
objectif enum L’objectif visé du fichier téléchargé. L’un des : – assistants : Utilisé dans l’API Assistants –batch : Utilisé dans l’API Batch – fine-tune : Utilisé pour l’ajustement – evals : Utilisé pour les jeux de données d’évaluation
Valeurs possibles : assistants, , batchfine-tune,evals
Oui

OpenAI.CreateFineTuningCheckpointPermissionRequest

Nom Type Descriptif Obligatoire Par défaut
project_ids tableau de chaînes Identificateurs de projet auxquels accorder l’accès. Oui

OpenAI.CreateFineTuningJobRequest

Modèles valides :

babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
Nom Type Descriptif Obligatoire Par défaut
hyperparameters OpenAI.CreateFineTuningJobRequestHyperparameters Non
└ taille_du_lot chaîne ou entier Non auto
─ learning_rate_multiplier chaîne ou nombre Non
└n_epochs chaîne ou entier Non auto
Intégrations tableau d’OpenAI.CreateFineTuningJobRequestIntegrations ou null Liste des intégrations à activer pour votre travail d’ajustement. Non
metadata OpenAI.Metadata ou null Non
method OpenAI.FineTuneMethod Méthode utilisée pour l’ajustement. Non
modèle chaîne (voir les modèles valides ci-dessous) Nom du modèle à ajuster. Vous pouvez sélectionner l’un des
supportés par c0.
Oui
seed entier ou null La graine contrôle la reproductibilité du travail. La transmission de la même graine et des mêmes paramètres de travail doit produire les mêmes résultats, mais peut différer dans de rares cas.
Si une graine n’est pas spécifiée, une graine est générée pour vous.
Non
suffixe chaîne ou nulle Chaîne de jusqu’à 64 caractères qui seront ajoutés au nom de votre modèle affiné.
Par exemple, un suffix « custom-model-name » produit un nom de modèle comme ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
Non
fichier d'entraînement ficelle ID d’un fichier chargé qui contient des données de formation.
Consultez Fichier de chargement pour savoir comment charger un fichier.
Votre jeu de données doit être mis en forme en tant que fichier JSONL. En outre, vous devez charger votre fichier à l’aide de l’objectif fine-tune.
Le contenu du fichier doit différer selon que le modèle utilise la conversation, le format de saisie semi-automatique ou si la méthode de réglage précis utilise le format de préférence .
Consultez le guide affining pour plus de détails.
Oui
fichier_de_validation chaîne ou nulle ID d’un fichier chargé qui contient des données de validation.
Si vous fournissez ce fichier, les données sont utilisées pour générer la validation
métriques régulièrement pendant l’ajustement. Ces métriques peuvent être consultées dans
le fichier de résultats de l’ajustement.
Les mêmes données ne doivent pas être présentes dans les fichiers d’apprentissage et de validation.
Votre jeu de données doit être mis en forme en tant que fichier JSONL. Vous devez charger votre fichier à l’aide de l’objectif fine-tune.
Consultez le guide affining pour plus de détails.
Non

OpenAI.CreateFineTuningJobRequestHyperparameters

Nom Type Descriptif Obligatoire Par défaut
taille de lot chaîne ou entier Non
multiplicateur de taux d'apprentissage chaîne ou nombre Non
nombre_d'époques chaîne ou entier Non

OpenAI.CreateFineTuningJobRequestIntegrations

Nom Type Descriptif Obligatoire Par défaut
type enum
Valeurs possibles : wandb
Oui
wandb OpenAI.CreateFineTuningJobRequestIntegrationsWandb Oui

OpenAI.CreateFineTuningJobRequestIntegrationsWandb

Nom Type Descriptif Obligatoire Par défaut
Entité chaîne ou nulle Non
nom chaîne ou nulle Non
project ficelle Oui
tags tableau de chaînes Non

OpenAI.CreateMessageRequest

Nom Type Descriptif Obligatoire Par défaut
attachments tableau d’OpenAI.CreateMessageRequestAttachments ou null Non
contenu chaîne ou tableau d’OpenAI.MessageContentImageFileObject ou OpenAI.MessageContentImageUrlObject ou OpenAI.MessageRequestContentTextObject Oui
metadata OpenAI.Metadata ou null Non
role enum Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes :
- user : indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur.
- assistant : indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation.
Valeurs possibles : user, assistant
Oui

OpenAI.CreateMessageRequestAttachments

Nom Type Descriptif Obligatoire Par défaut
identifiant_de_fichier ficelle Non
outils tableau d’OpenAI.AssistantToolsCode ou OpenAI.AssistantToolsFileSearchTypeOnly Non

OpenAI.CreateResponse

Nom Type Descriptif Obligatoire Par défaut
background booléen ou null Non
conversation OpenAI.ConversationParam ou null Non
inclure tableau d’OpenAI.IncludeEnum ou null Non
entrée OpenAI.InputParam Entrées de texte, d’image ou de fichier dans le modèle, utilisées pour générer une réponse.
Pour en savoir plus:
- Entrées et sorties texte
- Entrées d’image
- Entrées de fichier
- État de conversation
- Fonction appelant
Non
instructions chaîne ou nulle Non
max_output_tokens entier ou null Non
max_tool_calls entier ou null Non
metadata OpenAI.Metadata ou null Non
modèle ficelle ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAI
offre un large éventail de modèles avec différentes fonctionnalités, performances
caractéristiques et points de prix. Reportez-vous au guide du modèle
pour parcourir et comparer les modèles disponibles.
Non
parallel_tool_calls booléen ou null Non
previous_response_id chaîne ou nulle Non
prompt OpenAI.Prompt Référence à un modèle d’invite et à ses variables.
En savoir plus.
Non
prompt_cache_key ficelle Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ. En savoir plus. Non
prompt_cache_retention chaîne ou nulle Non
reasoning OpenAI.Reasoning ou Null Non
safety_identifier ficelle Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI.
Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus.
Non
store booléen ou null Non
ruisseau booléen ou null Non
stream_options OpenAI.ResponseStreamOptions ou null Non
température nombre ou null Non
texte OpenAI.ResponseTextParam Options de configuration d’une réponse texte à partir du modèle. Peut être du texte
brut ou des données JSON structurées. Pour en savoir plus:
- Entrées et sorties texte
- Sorties structurées
Non
tool_choice OpenAI.ToolChoiceParam Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération
une réponse. Voir le tools paramètre pour voir comment spécifier les outils
le modèle peut effectuer un appel.
Non
outils OpenAI.ToolsArray Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous
peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.
Nous prenons en charge les catégories d’outils suivantes :
- Outils intégrés : outils fournis par OpenAI qui étendent le
Les capacités du modèle, comme recherche web
ou fichier c0. En savoir plus sur
outils intégrés.
- Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés
ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur
Outils MCP.
- Appels de fonction (outils personnalisés) : fonctions définies par vous,
activation du modèle pour appeler votre propre code avec des arguments fortement typés
et sorties. En savoir plus sur
fonction appelant. Vous pouvez également utiliser
outils personnalisés pour appeler votre propre code.
Non
top_logprobs entier ou null Non
top_p nombre ou null Non
truncation chaîne ou nulle Non
utilisateur chaîne (déconseillée) Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.
Identificateur stable pour vos utilisateurs finaux.
Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus.
Non

OpenAI.CreateRunRequest

Nom Type Descriptif Obligatoire Par défaut
additional_instructions chaîne ou nulle Ajoute des instructions supplémentaires à la fin des instructions de l’exécution. Cela est utile pour modifier le comportement lors de chaque exécution sans remplacer d’autres instructions. Non
additional_messages tableau d’OpenAI.CreateMessageRequest ou null Ajoute des messages supplémentaires au thread avant de créer l’exécution. Non
assistant_id ficelle ID de l’Assistant à utiliser pour exécuter cette exécution. Oui
instructions chaîne ou nulle Remplace les instructions de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. Non
max_completion_tokens entier ou null Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. Non
max_prompt_tokens entier ou null Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. Non
metadata OpenAI.Metadata ou null Non
modèle ficelle ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. Non
parallel_tool_calls OpenAI.ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Non
effort de raisonnement OpenAI.ReasoningEffort Limite l’effort sur le raisonnement pour
les modèles de raisonnement.
Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduire
l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés
le raisonnement dans une réponse.
- gpt-5.1 nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.
- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.
- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.
- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max.
Non
format_de_réponse OpenAI.AssistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.
Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le
La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.
Important :* lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non
ruisseau booléen ou null Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE]. Non
température nombre ou null Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Non
tool_choice OpenAI.AssistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils avant de répondre à l’utilisateur.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Non
outils tableau d’OpenAI.AssistantTool Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. Non
top_p nombre ou null Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.
Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
Non
truncation_strategy OpenAI.TruncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. Non

OpenAI.CreateThreadAndRunRequest

Nom Type Descriptif Obligatoire Par défaut
assistant_id ficelle ID de l’Assistant à utiliser pour exécuter cette exécution. Oui
instructions chaîne ou nulle Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. Non
max_completion_tokens entier ou null Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. Non
max_prompt_tokens entier ou null Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. Non
metadata OpenAI.Metadata ou null Non
modèle ficelle ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. Non
parallel_tool_calls OpenAI.ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Non
format_de_réponse OpenAI.AssistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.
Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le
La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.
Important :* lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non
ruisseau booléen ou null Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE]. Non
température nombre ou null Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Non
fil OpenAI.CreateThreadRequest Options de création d’un thread. Si aucun thread n’est fourni lors de l’exécution d’un thread
demande, un thread vide est créé.
Non
tool_choice OpenAI.AssistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils avant de répondre à l’utilisateur.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Non
tool_resources OpenAI.CreateThreadAndRunRequestToolResources ou null Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. Non
outils tableau d’OpenAI.AssistantTool Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. Non
top_p nombre ou null Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.
Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
Non
truncation_strategy OpenAI.TruncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. Non

OpenAI.CreateThreadAndRunRequestToolResources

Nom Type Descriptif Obligatoire Par défaut
code_interpreter OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter Non
file_search OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch Non

OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter

Nom Type Descriptif Obligatoire Par défaut
identifiants_de_fichiers tableau de chaînes Non []

OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch

Nom Type Descriptif Obligatoire Par défaut
vector_store_ids tableau de chaînes Non

OpenAI.CreateThreadRequest

Options de création d’un thread. Si aucun thread n’est fourni lors de l’exécution d’une requête, un thread vide est créé.

Nom Type Descriptif Obligatoire Par défaut
messages tableau d’OpenAI.CreateMessageRequest Liste des messages à utiliser pour démarrer le thread. Non
metadata OpenAI.Metadata ou null Non
tool_resources OpenAI.CreateThreadRequestToolResources ou null Non

OpenAI.CreateThreadRequestToolResources

Nom Type Descriptif Obligatoire Par défaut
code_interpreter OpenAI.CreateThreadRequestToolResourcesCodeInterpreter Non
file_search objet ou objet Non

OpenAI.CreateThreadRequestToolResourcesCodeInterpreter

Nom Type Descriptif Obligatoire Par défaut
identifiants_de_fichiers tableau de chaînes Non

OpenAI.CreateVectorStoreFileBatchRequest

Nom Type Descriptif Obligatoire Par défaut
attributes OpenAI.VectorStoreFileAttributes ou null Non
chunking_strategy OpenAI.ChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. Non
identifiants_de_fichiers tableau de chaînes Liste des ID de fichier que le magasin vectoriel doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. S’ils attributes sont fournis ou chunking_strategy fournis, ils sont appliqués à tous les fichiers du lot. Mutuellement exclusif avec files. Non
Fichiers array of OpenAI.CreateVectorStoreFileRequest Liste d’objets qui incluent chacun un file_id plus facultatif attributes ou chunking_strategy. Utilisez cette option lorsque vous devez remplacer les métadonnées pour des fichiers spécifiques. attributes Global ou chunking_strategy sera ignoré et doit être spécifié pour chaque fichier. Mutuellement exclusif avec file_ids. Non

OpenAI.CreateVectorStoreFileRequest

Nom Type Descriptif Obligatoire Par défaut
attributes OpenAI.VectorStoreFileAttributes ou null Non
chunking_strategy OpenAI.ChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. Non
identifiant_de_fichier ficelle ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. Oui

OpenAI.CreateVectorStoreRequest

Nom Type Descriptif Obligatoire Par défaut
chunking_strategy OpenAI.ChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. Non
descriptif ficelle Description du magasin de vecteurs. Peut être utilisé pour décrire l’objectif du magasin vectoriel. Non
expire_après OpenAI.VectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. Non
identifiants_de_fichiers tableau de chaînes Liste des ID de fichier que le magasin vectoriel doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. Non
metadata OpenAI.Metadata ou null Non
nom ficelle Le nom du magasin de vecteurs. Non

OpenAI.CustomGrammarFormatParam

Une grammaire définie par l’utilisateur.

Nom Type Descriptif Obligatoire Par défaut
Définition ficelle La définition de la grammaire. Oui
syntax OpenAI.GrammarSyntax1 Oui
type enum Format grammatical. A toujours la valeur grammar.
Valeurs possibles : grammar
Oui

OpenAI.CustomTextFormatParam

Texte libre et sans contraintes.

Nom Type Descriptif Obligatoire Par défaut
type enum Format de texte sans contrainte. A toujours la valeur text.
Valeurs possibles : text
Oui

OpenAI.CustomToolChatCompletions

Un outil personnalisé qui traite les entrées en utilisant un format spécifié.

Nom Type Descriptif Obligatoire Par défaut
coutume OpenAI.CustomToolChatCompletionsCustom Oui
└─ Description ficelle Non
└─ Format OpenAI.CustomToolChatCompletionsCustomFormatText ou OpenAI.CustomToolChatCompletionsCustomFormatGrammar Non
└─ Nom ficelle Oui
type enum Le type d’outil personnalisé. A toujours la valeur custom.
Valeurs possibles : custom
Oui

OpenAI.CustomToolChatCompletionsCustom

Nom Type Descriptif Obligatoire Par défaut
descriptif ficelle Non
format OpenAI.CustomToolChatCompletionsCustomFormatText ou OpenAI.CustomToolChatCompletionsCustomFormatGrammar Non
nom ficelle Oui

OpenAI.CustomToolChatCompletionsCustomFormatGrammar

Nom Type Descriptif Obligatoire Par défaut
Grammaire OpenAI.CustomToolChatCompletionsCustomFormatGrammarMar Oui
Définition de └ ; ficelle Oui
Syntaxe └> enum
Valeurs possibles : lark, regex
Oui
type enum
Valeurs possibles : grammar
Oui

OpenAI.CustomToolChatCompletionsCustomFormatGrammarMar

Nom Type Descriptif Obligatoire Par défaut
Définition ficelle Oui
syntax enum
Valeurs possibles : lark, regex
Oui

OpenAI.CustomToolChatCompletionsCustomFormatText

Nom Type Descriptif Obligatoire Par défaut
type enum
Valeurs possibles : text
Oui

OpenAI.CustomToolParam

Un outil personnalisé qui traite les entrées en utilisant un format spécifié. En savoir plus sur les outils personnalisés

Nom Type Descriptif Obligatoire Par défaut
descriptif ficelle Description optionnelle de l’outil personnalisé, utilisée pour fournir plus de contexte. Non
format OpenAI.CustomToolParamFormat Le format d’entrée de l’outil personnalisé. Par défaut, c’est le texte non contraint. Non
└─ Type OpenAI.CustomToolParamFormatType Oui
nom ficelle Le nom de l’outil personnalisé, utilisé pour l’identifier lors des appels d’outils. Oui
type enum Le type d’outil personnalisé. A toujours la valeur custom.
Valeurs possibles : custom
Oui

OpenAI.CustomToolParamFormat

Le format d’entrée de l’outil personnalisé. Par défaut, c’est le texte non contraint.

Discriminateur pour OpenAI.CustomToolParamFormat

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
text OpenAI.CustomTextFormatParam
grammar OpenAI.CustomGrammarFormatParam
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.CustomToolParamFormatType Oui

OpenAI.CustomToolParamFormatType

Propriété Valeur
Type ficelle
Valeurs text
grammar

OpenAI.DeleteFileResponse

Nom Type Descriptif Obligatoire Par défaut
supprimé booléen Oui
id ficelle Oui
objet enum
Valeurs possibles : file
Oui

OpenAI.DeleteFineTuningCheckpointPermissionResponse

Nom Type Descriptif Obligatoire Par défaut
supprimé booléen Indique si l’autorisation de point de contrôle de modèle affinée a été correctement supprimée. Oui
id ficelle ID de l’autorisation de point de contrôle de modèle affinée qui a été supprimée. Oui
objet enum Type d’objet, qui est toujours « checkpoint.permission ».
Valeurs possibles : checkpoint.permission
Oui

OpenAI.DeleteMessageResponse

Nom Type Descriptif Obligatoire Par défaut
supprimé booléen Oui
id ficelle Oui
objet enum
Valeurs possibles : thread.message.deleted
Oui

OpenAI.DeleteModelResponse

Nom Type Descriptif Obligatoire Par défaut
supprimé booléen Oui
id ficelle Oui
objet ficelle Oui

OpenAI.DeleteThreadResponse

Nom Type Descriptif Obligatoire Par défaut
supprimé booléen Oui
id ficelle Oui
objet enum
Valeurs possibles : thread.deleted
Oui

OpenAI.DeleteVectorStoreFileResponse

Nom Type Descriptif Obligatoire Par défaut
supprimé booléen Oui
id ficelle Oui
objet enum
Valeurs possibles : vector_store.file.deleted
Oui

OpenAI.DeleteVectorStoreResponse

Nom Type Descriptif Obligatoire Par défaut
supprimé booléen Oui
id ficelle Oui
objet enum
Valeurs possibles : vector_store.deleted
Oui

OpenAI.DeletedConversationResource

Nom Type Descriptif Obligatoire Par défaut
supprimé booléen Oui
id ficelle Oui
objet enum
Valeurs possibles : conversation.deleted
Oui

OpenAI.DoubleClickAction

L'action de double clic

Nom Type Descriptif Obligatoire Par défaut
type enum Spécifie le type d’événement. Pour une action à double-clic, cette propriété est toujours définie sur double_click.
Valeurs possibles : double_click
Oui
x entier Coordonnée x où le double-clic s’est produit. Oui
y entier Coordonnée y où le double-clic s’est produit. Oui

OpenAI.Drag

Action glisser.

Nom Type Descriptif Obligatoire Par défaut
chemin tableau d’OpenAI.DragPoint Tableau de coordonnées représentant le parcours de l'action de glisser. Les coordonnées s’affichent sous forme de tableau
d’objets, par exemple
<br> [<br> { x: 100, y: 200 },<br> { x: 200, y: 300 }<br> ]<br>
Oui
type enum Spécifie le type d’événement. Pour une action de glisser, cette propriété est
toujours défini sur drag.
Valeurs possibles : drag
Oui

OpenAI.DragPoint

Paire de coordonnées x/y, par exemple { x: 100, y: 200 }.

Nom Type Descriptif Obligatoire Par défaut
x entier Coordonnée x. Oui
y entier La coordonnée y. Oui

OpenAI.EasyInputMessage

Un message d'entrée pour le modèle avec un rôle indiquant une hiérarchie de suivi des instructions. Les instructions fournies avec le rôle developer ou system priment sur les instructions fournies avec le rôle user. Les messages avec le assistant rôle sont présumés avoir été générés par le modèle dans les interactions précédentes.

Nom Type Descriptif Obligatoire Par défaut
contenu string ou OpenAI.InputMessageContentList Texte, image ou entrée audio du modèle utilisé pour générer une réponse.
Peut également contenir des réponses d’assistant précédentes.
Oui
role enum Rôle de la saisie de message. Un des user, , assistant, systemou
developer.
Valeurs possibles : user, , assistantsystem,developer
Oui
type enum Type de l’entrée de message. A toujours la valeur message.
Valeurs possibles : message
Oui

OpenAI.Embedding

Représente un vecteur d'intégration retourné par l'endpoint d'intégration.

Nom Type Descriptif Obligatoire Par défaut
embedding tableau de nombres Vecteur d’incorporation, qui est une liste de floats. La longueur du vecteur dépend du modèle tel qu’indiqué dans le guide d’incorporation. Oui
index entier Index de l’incorporation dans la liste des incorporations. Oui
objet enum Type d’objet, qui est toujours « embedding ».
Valeurs possibles : embedding
Oui

OpenAI.Eval

Objet Eval avec des critères de configuration et de test de source de données. Une évaluation représente une tâche à effectuer pour votre intégration LLM. comme ce qui suit :

  • Améliorer la qualité de mon chatbot
  • Découvrez comment mon chatbot gère le support client
  • Vérifiez si o4-mini est préférable à ma casse que gpt-4o
Nom Type Descriptif Obligatoire Par défaut
date_de_création entier Horodatage Unix (en secondes) de la création de l’évaluation. Oui
data_source_config OpenAI.EvalCustomDataSourceConfig ou OpenAI.EvalLogsDataSourceConfig ou OpenAI.EvalStoredCompletionsDataSourceConfig Configuration des sources de données utilisées dans les exécutions de l’évaluation. Oui
id ficelle Identificateur unique de l’évaluation. Oui
metadata OpenAI.Metadata ou null Oui
nom ficelle Le nom de l’évaluation. Oui
objet enum Type d’objet.
Valeurs possibles : eval
Oui
critères_de_test tableau d’OpenAI.CreateEvalLabelModelGrader ou OpenAI.EvalGraderStringCheck ou OpenAI.EvalGraderTextSimilarity ou OpenAI.EvalGraderPython ou OpenAI.EvalGraderScoreModel ou EvalGraderEndpoint Liste des critères de test. Oui

OpenAI.EvalApiError

Objet représentant une réponse d’erreur de l’API Eval.

Nom Type Descriptif Obligatoire Par défaut
code ficelle Code d’erreur. Oui
message ficelle Message d’erreur. Oui

OpenAI.EvalCustomDataSourceConfig

Un CustomDataSourceConfig qui spécifie le schéma de vos espaces de noms item et éventuellement sample. Le schéma de réponse définit la forme des données qui seront :

  • Utilisé pour définir vos critères de test et
  • Quelles données sont requises lors de la création d’une exécution
Nom Type Descriptif Obligatoire Par défaut
schéma objet Schéma JSON pour les éléments de source de données d’exécution.
Découvrez comment créer des schémas JSON ici.
Oui
type enum Le type de source de données. A toujours la valeur custom.
Valeurs possibles : custom
Oui

OpenAI.EvalGraderPython

Nom Type Descriptif Obligatoire Par défaut
image_tag ficelle Balise d’image à utiliser pour le script Python. Non
nom ficelle Nom du correcteur. Oui
seuil de passage nombre Seuil du score. Non
source ficelle Code source du script Python. Oui
type enum Le type d’objet, qui est toujours python.
Valeurs possibles : python
Oui

OpenAI.EvalGraderScoreModel

Nom Type Descriptif Obligatoire Par défaut
entrée tableau d’OpenAI.EvalItem Les messages d’entrée évalués par le classateur. Prend en charge le texte, le texte de sortie, l’image d’entrée et les blocs de contenu audio d’entrée, et peut inclure des chaînes de modèle. Oui
modèle ficelle Modèle à utiliser pour l’évaluation. Oui
nom ficelle Nom du correcteur. Oui
seuil de passage nombre Seuil du score. Non
range tableau de nombres Échelle du score. La valeur par défaut est [0, 1]. Non
paramètres d'échantillonnage OpenAI.EvalGraderScoreModelSamplingParams Non
└max_completions_tokens entier ou null Non
└effort_de_raisonnement OpenAI.ReasoningEffort Limite l’effort sur le raisonnement pour
les modèles de raisonnement.
Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduire
l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés
le raisonnement dans une réponse.
- gpt-5.1 nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.
- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.
- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.
- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max.
Non
Graine └─ entier ou null Non
└─ Température nombre ou null Non
└─ top_p nombre ou null Non 1
type enum Le type d’objet, qui est toujours score_model.
Valeurs possibles : score_model
Oui

OpenAI.EvalGraderScoreModelSamplingParams

Nom Type Descriptif Obligatoire Par défaut
max_completions_tokens entier ou null Non
effort de raisonnement OpenAI.ReasoningEffort Limite l’effort sur le raisonnement pour
les modèles de raisonnement.
Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduire
l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés
le raisonnement dans une réponse.
- gpt-5.1 nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.
- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.
- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.
- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max.
Non
seed entier ou null Non
température nombre ou null Non
top_p nombre ou null Non

OpenAI.EvalGraderStringCheck

Nom Type Descriptif Obligatoire Par défaut
entrée ficelle Le texte d’entrée. Cela peut inclure des chaînes de modèles. Oui
nom ficelle Nom du correcteur. Oui
opération enum Opération de vérification de chaîne à effectuer. Un de eq, ne, like, ou ilike.
Valeurs possibles : eq, , nelike,ilike
Oui
référence ficelle Le texte de référence. Cela peut inclure des chaînes de modèles. Oui
type enum Le type d’objet, qui est toujours string_check.
Valeurs possibles : string_check
Oui

OpenAI.EvalGraderTextSimilarity

Nom Type Descriptif Obligatoire Par défaut
métrique d'évaluation enum Métrique d’évaluation à utiliser. Un de cosine, fuzzy_match, bleu,
gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5
ou rouge_l.
Valeurs possibles : cosine, , , fuzzy_matchbleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l
Oui
entrée ficelle Le texte en cours d'évaluation. Oui
nom ficelle Nom du correcteur. Oui
seuil de passage nombre Seuil du score. Oui
référence ficelle Le texte servant de référence pour l'évaluation. Oui
type enum Le type de niveleuse.
Valeurs possibles : text_similarity
Oui

OpenAI.EvalItem

Un message d'entrée pour le modèle avec un rôle indiquant une hiérarchie de suivi des instructions. Les instructions fournies avec le rôle developer ou system priment sur les instructions fournies avec le rôle user. Les messages avec le assistant rôle sont présumés avoir été générés par le modèle dans les interactions précédentes.

Nom Type Descriptif Obligatoire Par défaut
contenu OpenAI.EvalItemContent Entrées dans le modèle : peut contenir des chaînes de modèle. Prend en charge le texte, le texte de sortie, les images d’entrée et l’audio d’entrée, sous la forme d’un élément unique ou d’un tableau d’éléments. Oui
role enum Rôle de la saisie de message. Un des user, , assistant, systemou
developer.
Valeurs possibles : user, , assistantsystem,developer
Oui
type enum Type de l’entrée de message. A toujours la valeur message.
Valeurs possibles : message
Non

OpenAI.EvalItemContent

Entrées dans le modèle : peut contenir des chaînes de modèle. Prend en charge le texte, le texte de sortie, les images d’entrée et l’audio d’entrée, sous la forme d’un élément unique ou d’un tableau d’éléments.

Type : OpenAI.EvalItemContentItem ou OpenAI.EvalItemContentArray

Entrées dans le modèle : peut contenir des chaînes de modèle. Prend en charge le texte, le texte de sortie, les images d’entrée et l’audio d’entrée, sous la forme d’un élément unique ou d’un tableau d’éléments.

OpenAI.EvalItemContentArray

Liste des entrées, chacune pouvant être un texte d’entrée, un texte de sortie, une image d’entrée ou un objet audio d’entrée.

Tableau de : OpenAI.EvalItemContentItem

OpenAI.EvalItemContentItem

Élément de contenu unique : texte d’entrée, texte de sortie, image d’entrée ou audio d’entrée.

Type : OpenAI.EvalItemContentText ou OpenAI.EvalItemContentItemObject

Élément de contenu unique : texte d’entrée, texte de sortie, image d’entrée ou audio d’entrée.

OpenAI.EvalItemContentItemObject

Élément de contenu unique : texte d’entrée, texte de sortie, image d’entrée ou audio d’entrée.

Discriminateur pour OpenAI.EvalItemContentItemObject

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
output_text OpenAI.EvalItemContentOutputText
input_image OpenAI.EvalItemInputImage
input_audio OpenAI.InputAudio
input_text OpenAI.EvalItemContentItemObjectInputTextContentContent
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.EvalItemContentItemObjectType Oui

OpenAI.EvalItemContentItemObjectInputTextContentContent

Entrée de texte dans le modèle.

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Entrée de texte dans le modèle. Oui
type enum Type de l’élément d’entrée. A toujours la valeur input_text.
Valeurs possibles : input_text
Oui

OpenAI.EvalItemContentItemObjectType

Propriété Valeur
Type ficelle
Valeurs input_text
output_text
input_image
input_audio

OpenAI.EvalItemContentOutputText

Sortie de texte du modèle.

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Le texte généré par le modèle. Oui
type enum Type du texte de sortie. A toujours la valeur output_text.
Valeurs possibles : output_text
Oui

OpenAI.EvalItemContentText

Entrée de texte dans le modèle.

Type : string

OpenAI.EvalItemInputImage

Bloc d’entrée d’image utilisé dans les tableaux de contenu EvalItem.

Nom Type Descriptif Obligatoire Par défaut
detail ficelle Niveau de détail de l’image à envoyer au modèle. Valeurs possibles : high, low ou auto. La valeur par défaut est auto. Non
image_url ficelle URL de l’entrée d’image. Oui
type enum Type de l’entrée d’image. A toujours la valeur input_image.
Valeurs possibles : input_image
Oui

OpenAI.EvalJsonlFileContentSource

Nom Type Descriptif Obligatoire Par défaut
contenu tableau d’OpenAI.EvalJsonlFileContentSourceContentContent Contenu du fichier jsonl. Oui
type enum Type de source jsonl. A toujours la valeur file_content.
Valeurs possibles : file_content
Oui

OpenAI.EvalJsonlFileContentSourceContentContent

Nom Type Descriptif Obligatoire Par défaut
item objet Oui
échantillon objet Non

OpenAI.EvalJsonlFileIdSource

Nom Type Descriptif Obligatoire Par défaut
id ficelle L’identificateur du fichier. Oui
type enum Type de source jsonl. A toujours la valeur file_id.
Valeurs possibles : file_id
Oui

OpenAI.EvalList

Objet représentant une liste d'évaluations.

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.Eval Tableau d’objets d’évaluation. Oui
premier_identifiant ficelle Identificateur du premier eval dans le tableau de données. Oui
has_more booléen Indique s'il existe d'autres évaluations disponibles. Oui
last_id ficelle Identificateur du dernier eval dans le tableau de données. Oui
objet enum Type de cet objet. Toujours défini sur « list ».
Valeurs possibles : list
Oui

OpenAI.EvalLogsDataSourceConfig

LogsDataSourceConfig qui spécifie la propriété de métadonnées de votre requête de journaux d’activité. Il s’agit généralement de métadonnées telles que usecase=chatbot ou prompt-version=v2, etc. Le schéma retourné par cette configuration de source de données est utilisé pour définir les variables disponibles dans vos valeurs d’évaluation. item et sample sont tous les deux définis lors de l’utilisation de cette configuration de source de données.

Nom Type Descriptif Obligatoire Par défaut
metadata OpenAI.Metadata ou null Non
schéma objet Schéma JSON pour les éléments de source de données d’exécution.
Découvrez comment créer des schémas JSON ici.
Oui
type enum Le type de source de données. A toujours la valeur logs.
Valeurs possibles : logs
Oui

OpenAI.EvalResponsesSource

Objet EvalResponsesSource décrivant une configuration de source de données d’exécution.

Nom Type Descriptif Obligatoire Par défaut
created_after entier ou null Non
créé_avant entier ou null Non
instructions_search chaîne ou nulle Non
metadata objet ou null Non
modèle chaîne ou nulle Non
effort de raisonnement OpenAI.ReasoningEffort ou null Non
température nombre ou null Non
outils tableau de chaînes ou null Non
top_p nombre ou null Non
type enum Type de source de données d’exécution. A toujours la valeur responses.
Valeurs possibles : responses
Oui
users tableau de chaînes ou null Non

OpenAI.EvalRun

Schéma représentant un processus d’évaluation.

Nom Type Descriptif Obligatoire Par défaut
date_de_création entier Horodatage Unix (en secondes) lorsqu’une exécution du rapport d’évaluation a été créée. Oui
source de données OpenAI.CreateEvalJsonlRunDataSource ou OpenAI.CreateEvalCompletionsRunDataSource ou OpenAI.CreateEvalResponsesRunDataSource Informations sur la source de données de l’exécution. Oui
erreur OpenAI.EvalApiError Objet représentant une réponse d’erreur de l’API Eval. Oui
eval_id ficelle Identificateur de l’évaluation associée. Oui
id ficelle Identificateur unique pour la réalisation de l’évaluation. Oui
metadata OpenAI.Metadata ou null Oui
modèle ficelle Modèle évalué, le cas échéant. Oui
nom ficelle Nom de l’exécution de l’évaluation. Oui
objet enum Type de l’objet. Toujours « eval.run ».
Valeurs possibles : eval.run
Oui
per_model_usage tableau d’OpenAI.EvalRunPerModelUsage Statistiques d’utilisation pour chaque modèle pendant l’exécution de l’évaluation. Oui
résultats_par_critères_de_test tableau d’OpenAI.EvalRunPerTestingCriteriaResults Résultats par critères de test appliqués pendant l’exécution de l’évaluation. Oui
report_url ficelle URL du rapport d’exécution d’évaluation rendu sur le tableau de bord de l’interface utilisateur. Oui
nombre_de_résultats OpenAI.EvalRunResultCounts Oui
└' erreur entier Oui
Échec entier Oui
└─ réussi entier Oui
└─ Total entier Oui
status ficelle État de l’exécution de l’évaluation. Oui

OpenAI.EvalRunList

Objet représentant une liste d’exécutions d’une évaluation.

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.EvalRun Tableau d’objets d’exécution d’évaluation. Oui
premier_identifiant ficelle Identificateur de la première exécution d’évaluation dans le tableau de données. Oui
has_more booléen Indique s'il existe d'autres évaluations disponibles. Oui
last_id ficelle Identificateur de la dernière exécution d'évaluation dans le tableau de données. Oui
objet enum Type de cet objet. Toujours défini sur « list ».
Valeurs possibles : list
Oui

OpenAI.EvalRunOutputItem

Schéma représentant un élément de sortie d'une exécution d'évaluation.

Nom Type Descriptif Obligatoire Par défaut
date_de_création entier Horodatage Unix (en secondes) lorsqu’une exécution du rapport d’évaluation a été créée. Oui
datasource_item objet Détails de l’élément de source de données d’entrée. Oui
datasource_item_id entier Identificateur de l’élément de source de données. Oui
eval_id ficelle Identificateur du groupe d’évaluation. Oui
id ficelle Identificateur unique de l’élément de sortie d’exécution d’évaluation. Oui
objet enum Type de l’objet. Toujours « eval.run.output_item ».
Valeurs possibles : eval.run.output_item
Oui
results tableau d’OpenAI.EvalRunOutputItemResult Liste des résultats du classateur pour cet élément de sortie. Oui
run_id ficelle Identificateur de l’exécution d’évaluation associée à cet élément de sortie. Oui
échantillon OpenAI.EvalRunOutputItemSample Oui
Erreur └ ; OpenAI.EvalApiError Objet représentant une réponse d’erreur de l’API Eval. Oui
└─ raison_de_fin ficelle Oui
└─ Entrée tableau d’OpenAI.EvalRunOutputItemSampleInput Oui
└max_completion_tokens entier Oui
└─ Modèle ficelle Oui
└─ Sortie tableau d’OpenAI.EvalRunOutputItemSampleOutput Oui
Graine └─ entier Oui
└─ Température nombre Oui
└─ top_p nombre Oui
└─ utilisation OpenAI.EvalRunOutputItemSampleUsage Oui
status ficelle État de l’exécution de l’évaluation. Oui

OpenAI.EvalRunOutputItemList

Objet représentant une liste d’éléments de sortie pour une exécution d’évaluation.

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.EvalRunOutputItem Tableau d’objets d’éléments de sortie de l’exécution d’évaluation. Oui
premier_identifiant ficelle Identificateur du premier élément de sortie d’exécution d’évaluation dans le tableau de données. Oui
has_more booléen Indique s’il existe plus d’éléments de sortie d’exécutions d’évaluations disponibles. Oui
last_id ficelle Identificateur du dernier élément de sortie du processus d'évaluation dans le tableau de données. Oui
objet enum Type de cet objet. Toujours défini sur « list ».
Valeurs possibles : list
Oui

OpenAI.EvalRunOutputItemResult

Résultat d’un seul gradeur pour un élément de sortie d’exécution d’évaluation.

Nom Type Descriptif Obligatoire Par défaut
nom ficelle Nom du correcteur. Oui
Passé booléen Indique si le classateur a considéré la sortie comme une passe. Oui
échantillon objet ou null Exemples facultatifs ou données intermédiaires produites par le classateur. Non
score nombre Score numérique produit par le classateur. Oui
type ficelle Type de grade (par exemple, « string-check-grader »). Non

OpenAI.EvalRunOutputItemSample

Nom Type Descriptif Obligatoire Par défaut
erreur OpenAI.EvalApiError Objet représentant une réponse d’erreur de l’API Eval. Oui
finish_reason ficelle Oui
entrée tableau d’OpenAI.EvalRunOutputItemSampleInput Oui
max_completion_tokens entier Oui
modèle ficelle Oui
output tableau d’OpenAI.EvalRunOutputItemSampleOutput Oui
seed entier Oui
température nombre Oui
top_p nombre Oui
usage OpenAI.EvalRunOutputItemSampleUsage Oui

OpenAI.EvalRunOutputItemSampleInput

Nom Type Descriptif Obligatoire Par défaut
contenu ficelle Oui
role ficelle Oui

OpenAI.EvalRunOutputItemSampleOutput

Nom Type Descriptif Obligatoire Par défaut
contenu ficelle Non
role ficelle Non

OpenAI.EvalRunOutputItemSampleUsage

Nom Type Descriptif Obligatoire Par défaut
cached_tokens entier Oui
completion_tokens entier Oui
prompt_tokens entier Oui
total_tokens entier Oui

OpenAI.EvalRunPerModelUsage

Nom Type Descriptif Obligatoire Par défaut
cached_tokens entier Oui
completion_tokens entier Oui
invocation_count entier Oui
model_name ficelle Oui
prompt_tokens entier Oui
total_tokens entier Oui

OpenAI.EvalRunPerTestingCriteriaResults

Nom Type Descriptif Obligatoire Par défaut
a échoué entier Oui
Passé entier Oui
critères_de_test ficelle Oui

OpenAI.EvalRunResultCounts

Nom Type Descriptif Obligatoire Par défaut
erreur entier Oui
a échoué entier Oui
Passé entier Oui
total entier Oui

OpenAI.EvalStoredCompletionsDataSourceConfig

Déconseillé en faveur de LogsDataSourceConfig.

Nom Type Descriptif Obligatoire Par défaut
metadata OpenAI.Metadata ou null Non
schéma objet Schéma JSON pour les éléments de source de données d’exécution.
Découvrez comment créer des schémas JSON ici.
Oui
type enum Le type de source de données. A toujours la valeur stored_completions.
Valeurs possibles : stored_completions
Oui

OpenAI.EvalStoredCompletionsSource

Configuration StoredCompletionsRunDataSource décrivant un ensemble de filtres

Nom Type Descriptif Obligatoire Par défaut
created_after entier ou null Non
créé_avant entier ou null Non
limit entier ou null Non
metadata OpenAI.Metadata ou null Non
modèle chaîne ou nulle Non
type enum Le yype de source. A toujours la valeur stored_completions.
Valeurs possibles : stored_completions
Oui

OpenAI.FileCitationBody

Citation d'un fichier.

Nom Type Descriptif Obligatoire Par défaut
identifiant_de_fichier ficelle ID du fichier. Oui
filename ficelle Nom du fichier cité. Oui
index entier Index du fichier dans la liste des fichiers. Oui
type enum Type de la citation de fichier. A toujours la valeur file_citation.
Valeurs possibles : file_citation
Oui

OpenAI.FilePath

Chemin d’accès à un fichier.

Nom Type Descriptif Obligatoire Par défaut
identifiant_de_fichier ficelle ID du fichier. Oui
index entier Index du fichier dans la liste des fichiers. Oui
type enum Type du chemin d’accès au fichier. A toujours la valeur file_path.
Valeurs possibles : file_path
Oui

OpenAI.FileSearchRanker

Outil de classement à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, le classificateur auto sera utilisé.

Propriété Valeur
Type ficelle
Valeurs auto
default_2024_08_21

OpenAI.FileSearchRankingOptions

Options de classement pour la recherche de fichiers. S’il n’est pas spécifié, l’outil de recherche de fichiers utilise le auto ranker et une score_threshold de 0. Pour plus d’informations, consultez la documentation de l’outil de recherche de fichiers .

Nom Type Descriptif Obligatoire Par défaut
ranker OpenAI.FileSearchRanker Outil de classement à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, le classificateur auto sera utilisé. Non
seuil de score nombre Seuil de score pour la recherche de fichiers. Toutes les valeurs doivent être un nombre à virgule flottante compris entre 0 et 1.
Contraintes : min : 0, max : 1
Oui

OpenAI.FileSearchTool

Outil qui recherche le contenu pertinent à partir de fichiers chargés.

Nom Type Descriptif Obligatoire Par défaut
filters OpenAI.Filters ou null Non
nombre_maximal_de_résultats entier Le nombre maximal de résultats à renvoyer. Ce nombre doit être compris entre 1 et 50 inclus. Non
options_de_classement OpenAI.RankingOptions Non
└hybrid_search OpenAI.HybridSearchOptions Des pondérations qui contrôlent comment la fusion de rang réciproque équilibre les correspondances d’embedding sémantique versus les correspondances de mots-clés clairsemées lorsque la recherche hybride est activée. Non
└─ classificateur OpenAI.RankerVersionType Outil de classement à utiliser pour la recherche de fichiers. Non
└score_threshold nombre Seuil de score pour la recherche de fichiers, nombre compris entre 0 et 1. Les nombres plus proches de 1 tenteront de retourner uniquement les résultats les plus pertinents, mais peuvent retourner moins de résultats. Non
type enum Type de l’outil de recherche de fichiers. A toujours la valeur file_search.
Valeurs possibles : file_search
Oui
vector_store_ids tableau de chaînes ID des magasins vectoriels à rechercher. Oui

OpenAI.FileSearchToolCallResults

Nom Type Descriptif Obligatoire Par défaut
attributes OpenAI.VectorStoreFileAttributes ou null Non
identifiant_de_fichier ficelle Non
filename ficelle Non
score nombre Non
texte ficelle Non

OpenAI.Filters

Type : OpenAI.ComparisonFilter ou OpenAI.CompoundFilter

OpenAI.FineTuneDPOHyperparameters

Hyperparamètres utilisés pour le travail d’ajustement du DPD.

Nom Type Descriptif Obligatoire Par défaut
taille de lot chaîne ou entier Nombre d’exemples dans chaque lot. Une taille de lot plus grande signifie que les paramètres de modèle sont mis à jour moins souvent, mais avec une variance plus faible. Non
bêta chaîne ou nombre Valeur bêta de la méthode DPO. Une valeur bêta plus élevée augmente le poids de la pénalité entre la stratégie et le modèle de référence. Non
multiplicateur de taux d'apprentissage chaîne ou nombre Facteur de mise à l’échelle pour le taux d’apprentissage. Un taux d’apprentissage plus faible peut être utile pour éviter un surajustement. Non
nombre_d'époques chaîne ou entier Nombre d'époques pendant lequel effectuer la formation du modèle. Une époque fait référence à un cycle complet dans le jeu de données de formation. Non

OpenAI.FineTuneDPOMethod

Configuration de la méthode d’ajustement du DPD.

Nom Type Descriptif Obligatoire Par défaut
hyperparameters OpenAI.FineTuneDPOHyperparameters Hyperparamètres utilisés pour le travail d’ajustement du DPD. Non

OpenAI.FineTuneMethod

Méthode utilisée pour l’ajustement.

Nom Type Descriptif Obligatoire Par défaut
dpd OpenAI.FineTuneDPOMethod Configuration de la méthode d’ajustement du DPD. Non
renforcement AzureFineTuneReinforcementMethod Non
Supervisé OpenAI.FineTuneSupervisedMethod Configuration de la méthode d’ajustement supervisé. Non
type enum Type de méthode. Soit supervised, dpo ou reinforcement.
Valeurs possibles : supervised, , dporeinforcement
Oui

OpenAI.FineTuneReinforcementHyperparameters

Les hyperparamètres utilisés pour le travail d’ajustement du renforcement.

Nom Type Descriptif Obligatoire Par défaut
taille de lot chaîne ou entier Nombre d’exemples dans chaque lot. Une taille de lot plus grande signifie que les paramètres de modèle sont mis à jour moins souvent, mais avec une variance plus faible. Non
compute_multiplier chaîne ou nombre Multiplicateur sur la quantité de calcul utilisée pour explorer l’espace de recherche pendant l’entraînement. Non
eval_interval chaîne ou entier Nombre d’étapes d’entraînement entre les mesures d’évaluation. Non
eval_samples chaîne ou entier Nombre d’échantillons d’évaluation à générer par étape d’apprentissage. Non
multiplicateur de taux d'apprentissage chaîne ou nombre Facteur de mise à l’échelle pour le taux d’apprentissage. Un taux d’apprentissage plus faible peut être utile pour éviter un surajustement. Non
nombre_d'époques chaîne ou entier Nombre d'époques pendant lequel effectuer la formation du modèle. Une époque fait référence à un cycle complet dans le jeu de données de formation. Non
effort de raisonnement enum Niveau d’effort de raisonnement.
Valeurs possibles : default, , lowmedium,high
Non

OpenAI.FineTuneSupervisedHyperparameters

Hyperparamètres utilisés pour le travail d’ajustement.

Nom Type Descriptif Obligatoire Par défaut
taille de lot chaîne ou entier Nombre d’exemples dans chaque lot. Une taille de lot plus grande signifie que les paramètres de modèle sont mis à jour moins souvent, mais avec une variance plus faible. Non
multiplicateur de taux d'apprentissage chaîne ou nombre Facteur de mise à l’échelle pour le taux d’apprentissage. Un taux d’apprentissage plus faible peut être utile pour éviter un surajustement. Non
nombre_d'époques chaîne ou entier Nombre d'époques pendant lequel effectuer la formation du modèle. Une époque fait référence à un cycle complet dans le jeu de données de formation. Non

OpenAI.FineTuneSupervisedMethod

Configuration de la méthode d’ajustement supervisé.

Nom Type Descriptif Obligatoire Par défaut
hyperparameters OpenAI.FineTuneSupervisedHyperparameters Hyperparamètres utilisés pour le travail d’ajustement. Non

OpenAI.FineTuningCheckpointPermission

L’objet checkpoint.permission représente une autorisation pour un point de contrôle de modèle affiné.

Nom Type Descriptif Obligatoire Par défaut
date_de_création entier Horodatage Unix (en secondes) pour lequel l’autorisation a été créée. Oui
id ficelle Identificateur d’autorisation, qui peut être référencé dans les points de terminaison d’API. Oui
objet enum Type d’objet, qui est toujours « checkpoint.permission ».
Valeurs possibles : checkpoint.permission
Oui
project_id ficelle Identificateur de projet pour lequel l’autorisation est autorisée. Oui

OpenAI.FineTuningIntegration

Nom Type Descriptif Obligatoire Par défaut
type enum Type de l’intégration activée pour le travail d’ajustement
Valeurs possibles : wandb
Oui
wandb OpenAI.FineTuningIntegrationWandb Oui
Entité └─ chaîne ou nulle Non
└─ Nom chaîne ou nulle Non
└─ Projet ficelle Oui
Balises └> tableau de chaînes Non

OpenAI.FineTuningIntegrationWandb

Nom Type Descriptif Obligatoire Par défaut
Entité chaîne ou nulle Non
nom chaîne ou nulle Non
project ficelle Oui
tags tableau de chaînes Non

OpenAI.FineTuningJob

L’objet fine_tuning.job représente un travail d’ajustement qui a été créé via l’API.

Nom Type Descriptif Obligatoire Par défaut
date_de_création entier Horodatage Unix (en secondes) pour lequel le travail de réglage a été créé. Oui
erreur OpenAI.FineTuningJobError ou null Oui
fin estimée chaîne ou nulle Non
fine_tuned_model chaîne ou nulle Oui
finished_at chaîne ou nulle Oui
hyperparameters OpenAI.FineTuningJobHyperparameters Oui
└ taille_du_lot chaîne ou entier ou null Non auto
─ learning_rate_multiplier chaîne ou nombre Non
└n_epochs chaîne ou entier Non auto
id ficelle Identificateur d’objet, qui peut être référencé dans les points de terminaison d’API. Oui
Intégrations tableau d’OpenAI.FineTuningIntegration ou null Non
metadata OpenAI.Metadata ou null Non
method OpenAI.FineTuneMethod Méthode utilisée pour l’ajustement. Non
modèle ficelle Modèle de base en cours d’optimisation. Oui
objet enum Type d’objet, qui est toujours « fine_tuning.job ».
Valeurs possibles : fine_tuning.job
Oui
organization_id ficelle Organisation propriétaire du travail d’optimisation. Oui
fichiers_résultat tableau de chaînes ID du ou des fichiers de résultats compilés pour le travail d’ajustement. Vous pouvez récupérer les résultats avec l’API Files. Oui
seed entier La valeur initiale utilisée pour la tâche d’ajustement. Oui
status enum État actuel du travail d’ajustement, qui peut être validating_files, queued, running, succeeded, failed ou cancelled.
Valeurs possibles : validating_files, , queuedrunning, succeeded, failedcancelled
Oui
trained_tokens entier ou null Oui
fichier d'entraînement ficelle ID de fichier utilisé pour la formation. Vous pouvez récupérer les données d’apprentissage avec l’API Files. Oui
fichier_de_validation chaîne ou nulle Oui

OpenAI.FineTuningJobCheckpoint

L’objet fine_tuning.job.checkpoint représente un point de contrôle de modèle pour un travail d’ajustement prêt à être utilisé.

Nom Type Descriptif Obligatoire Par défaut
date_de_création entier Un horodatage Unix (en secondes) du moment auquel le point de contrôle a été créé. Oui
fine_tuned_model_checkpoint ficelle L nom du modèle de point de contrôle ajusté qui a été créé. Oui
fine_tuning_job_id ficelle Nom du travail de réglage précis à partir duquel ce point de contrôle a été créé. Oui
id ficelle Identificateur de point de contrôle, qui peut être référencé dans les points de terminaison d’API. Oui
metrics OpenAI.FineTuningJobCheckpointMetrics Oui
└full_valid_loss nombre Non
└Précision_moyenne_du_token_valide_complet nombre Non
└─ Étape nombre Non
└─ perte_d'entraînement nombre Non
└─ précision_moyenne_des_tokens_entraînement nombre Non
└valid_loss nombre Non
Précision_moyenne_valide_par_jeton nombre Non
objet enum Type d’objet, qui est toujours « fine_tuning.job.checkpoint ».
Valeurs possibles : fine_tuning.job.checkpoint
Oui
numéro_étape entier Le numéro d’étape auquel le point de contrôle a été créé. Oui

OpenAI.FineTuningJobCheckpointMetrics

Nom Type Descriptif Obligatoire Par défaut
full_valid_loss nombre Non
full_valid_mean_token_accuracy nombre Non
étape nombre Non
train_loss nombre Non
train_mean_token_accuracy nombre Non
valid_loss nombre Non
valid_mean_token_accuracy nombre Non

OpenAI.FineTuningJobError

Nom Type Descriptif Obligatoire Par défaut
code ficelle Oui
message ficelle Oui
param chaîne ou nulle Oui

OpenAI.FineTuningJobEvent

Objet d’événement de travail d’ajustement

Nom Type Descriptif Obligatoire Par défaut
date_de_création entier Horodatage Unix (en secondes) pour lequel le travail de réglage a été créé. Oui
données OpenAI.FineTuningJobEventData Non
id ficelle Identificateur d’objet. Oui
niveau enum Niveau de journal de l’événement.
Valeurs possibles : info, , warnerror
Oui
message ficelle Message de l’événement. Oui
objet enum Type d’objet, qui est toujours « fine_tuning.job.event ».
Valeurs possibles : fine_tuning.job.event
Oui
type enum le type d’événement ;
Valeurs possibles : message, metrics
Non

OpenAI.FineTuningJobEventData

Type : objet

OpenAI.FineTuningJobHyperparameters

Nom Type Descriptif Obligatoire Par défaut
taille de lot chaîne ou entier ou null Non
multiplicateur de taux d'apprentissage chaîne ou nombre Non
nombre_d'époques chaîne ou entier Non

OpenAI.FunctionAndCustomToolCallOutput

Discriminateur pour OpenAI.FunctionAndCustomToolCallOutput

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
input_text OpenAI.FunctionAndCustomToolCallOutputInputTextContent
input_image OpenAI.FunctionAndCustomToolCallOutputInputImageContent
input_file OpenAI.FunctionAndCustomToolCallOutputInputFileContent
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.FunctionAndCustomToolCallOutputType Oui

OpenAI.FunctionAndCustomToolCallOutputInputFileContent

Entrée de fichier dans le modèle.

Nom Type Descriptif Obligatoire Par défaut
file_data ficelle Contenu du fichier à envoyer au modèle. Non
identifiant_de_fichier chaîne ou nulle Non
file_url ficelle L’URL du fichier à envoyer au modèle. Non
filename ficelle Nom du fichier à envoyer au modèle. Non
type enum Type de l’élément d’entrée. A toujours la valeur input_file.
Valeurs possibles : input_file
Oui

OpenAI.FunctionAndCustomToolCallOutputInputImageContent

Entrée d’image dans le modèle. Apprenez à propos des entrées <>image c0.

Nom Type Descriptif Obligatoire Par défaut
detail OpenAI.ImageDetail Oui
identifiant_de_fichier chaîne ou nulle Non
image_url chaîne ou nulle Non
type enum Type de l’élément d’entrée. A toujours la valeur input_image.
Valeurs possibles : input_image
Oui

OpenAI.FunctionAndCustomToolCallOutputInputTextContent

Entrée de texte dans le modèle.

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Entrée de texte dans le modèle. Oui
type enum Type de l’élément d’entrée. A toujours la valeur input_text.
Valeurs possibles : input_text
Oui

OpenAI.FunctionAndCustomToolCallOutputType

Propriété Valeur
Type ficelle
Valeurs input_text
input_image
input_file

OpenAI.FunctionObject

Nom Type Descriptif Obligatoire Par défaut
descriptif ficelle Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. Non
nom ficelle Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. Oui
paramètres OpenAI.FunctionParameters Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Voir le guide pour des exemples, et la référence JSON Schema pour la documentation sur le format.
L’omission de parameters définit une fonction avec une liste de paramètres vide.
Non
strict booléen ou null Non

OpenAI.FunctionParameters

Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Voir le guide pour des exemples, et la référence JSON Schema pour la documentation sur le format. L’omission de parameters définit une fonction avec une liste de paramètres vide.

Type : objet

OpenAI.FunctionShellAction

Exécutez une commande shell.

Nom Type Descriptif Obligatoire Par défaut
commands tableau de chaînes Oui
max_output_length entier ou null Oui
timeout (délai en ms) entier ou null Oui

OpenAI.FunctionShellCallOutputContent

Contenu d’une sortie d’appel d’outil shell qui a été émise.

Nom Type Descriptif Obligatoire Par défaut
created_by ficelle Identificateur de l’acteur qui a créé l’élément. Non
résultat OpenAI.FunctionShellCallOutputOutcome Représente un résultat de sortie (avec un code de sortie) ou un résultat de délai d’expiration pour un bloc de sortie d’appel d’interpréteur de commandes. Oui
└─ Type OpenAI.FunctionShellCallOutputOutcomeType Oui
Stderr ficelle Sortie d’erreur standard capturée. Oui
stdout ficelle Sortie standard capturée. Oui

OpenAI.FunctionShellCallOutputExitOutcome

Indique que les commandes shell se sont terminées et ont renvoyé un code de sortie.

Nom Type Descriptif Obligatoire Par défaut
exit_code entier Quittez le code du processus d’interpréteur de commandes. Oui
type enum Le type de résultat. A toujours la valeur exit.
Valeurs possibles : exit
Oui

OpenAI.FunctionShellCallOutputOutcome

Représente un résultat de sortie (avec un code de sortie) ou un résultat de délai d’expiration pour un bloc de sortie d’appel d’interpréteur de commandes.

Discriminateur pour OpenAI.FunctionShellCallOutputOutcome

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
timeout OpenAI.FunctionShellCallOutputTimeoutOutcome
exit OpenAI.FunctionShellCallOutputExitOutcome
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.FunctionShellCallOutputOutcomeType Oui

OpenAI.FunctionShellCallOutputOutcomeType

Propriété Valeur
Type ficelle
Valeurs timeout
exit

OpenAI.FunctionShellCallOutputTimeoutOutcome

Indique que l’appel shell a dépassé sa limite de temps configurée.

Nom Type Descriptif Obligatoire Par défaut
type enum Le type de résultat. A toujours la valeur timeout.
Valeurs possibles : timeout
Oui

OpenAI.FunctionShellToolParam

Un outil qui permet au modèle d’exécuter des commandes shell.

Nom Type Descriptif Obligatoire Par défaut
type enum Le type d’outil coquille. A toujours la valeur shell.
Valeurs possibles : shell
Oui

OpenAI.FunctionTool

Définit une fonction dans votre propre code que le modèle peut choisir d’appeler.

Nom Type Descriptif Obligatoire Par défaut
descriptif chaîne ou nulle Non
nom ficelle Nom de la fonction à appeler. Oui
paramètres objet ou null Oui
strict booléen ou null Oui
type enum Type de l’outil de fonction. A toujours la valeur function.
Valeurs possibles : function
Oui

OpenAI.GraderMulti

Un objet MultiGrader combine la sortie de plusieurs outils de notation pour produire un score unique.

Nom Type Descriptif Obligatoire Par défaut
calculate_output ficelle Formule permettant de calculer la sortie en fonction des résultats de l’outil de notation. Oui
outils de notation OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderScoreModel ou GraderEndpoint Oui
nom ficelle Nom du correcteur. Oui
type enum Le type d’objet, qui est toujours multi.
Valeurs possibles : multi
Oui

OpenAI.GraderPython

Objet PythonGrader qui exécute un script Python sur l’entrée.

Nom Type Descriptif Obligatoire Par défaut
image_tag ficelle Balise d’image à utiliser pour le script Python. Non
nom ficelle Nom du correcteur. Oui
source ficelle Code source du script Python. Oui
type enum Le type d’objet, qui est toujours python.
Valeurs possibles : python
Oui

OpenAI.GraderScoreModel

Objet ScoreModelGrader qui utilise un modèle pour affecter un score à l’entrée.

Nom Type Descriptif Obligatoire Par défaut
entrée tableau d’OpenAI.EvalItem Les messages d’entrée évalués par le classateur. Prend en charge le texte, le texte de sortie, l’image d’entrée et les blocs de contenu audio d’entrée, et peut inclure des chaînes de modèle. Oui
modèle ficelle Modèle à utiliser pour l’évaluation. Oui
nom ficelle Nom du correcteur. Oui
range tableau de nombres Échelle du score. La valeur par défaut est [0, 1]. Non
paramètres d'échantillonnage OpenAI.EvalGraderScoreModelSamplingParams Non
└max_completions_tokens entier ou null Non
└effort_de_raisonnement OpenAI.ReasoningEffort Limite l’effort sur le raisonnement pour
les modèles de raisonnement.
Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduire
l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés
le raisonnement dans une réponse.
- gpt-5.1 nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.
- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.
- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.
- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max.
Non
Graine └─ entier ou null Non
└─ Température nombre ou null Non
└─ top_p nombre ou null Non 1
type enum Le type d’objet, qui est toujours score_model.
Valeurs possibles : score_model
Oui

OpenAI.GraderStringCheck

Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée.

Nom Type Descriptif Obligatoire Par défaut
entrée ficelle Le texte d’entrée. Cela peut inclure des chaînes de modèles. Oui
nom ficelle Nom du correcteur. Oui
opération enum Opération de vérification de chaîne à effectuer. Un de eq, ne, like, ou ilike.
Valeurs possibles : eq, , nelike,ilike
Oui
référence ficelle Le texte de référence. Cela peut inclure des chaînes de modèles. Oui
type enum Le type d’objet, qui est toujours string_check.
Valeurs possibles : string_check
Oui

OpenAI.GraderTextSimilarity

Objet TextSimilarityGrader qui classe le texte en fonction des métriques de similarité.

Nom Type Descriptif Obligatoire Par défaut
métrique d'évaluation enum Métrique d’évaluation à utiliser. Un de cosine, fuzzy_match, bleu,
gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5
ou rouge_l.
Valeurs possibles : cosine, , , fuzzy_matchbleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l
Oui
entrée ficelle Le texte en cours d'évaluation. Oui
nom ficelle Nom du correcteur. Oui
référence ficelle Le texte servant de référence pour l'évaluation. Oui
type enum Le type de niveleuse.
Valeurs possibles : text_similarity
Oui

OpenAI.GrammarSyntax1

Propriété Valeur
Type ficelle
Valeurs lark
regex

OpenAI.HybridSearchOptions

Nom Type Descriptif Obligatoire Par défaut
embedding_weight nombre Le poids de l’immersion dans la fusion de rang réciproque. Oui
text_weight nombre Le poids du texte dans la fusion de rang réciproque. Oui

OpenAI.ImageDetail

Propriété Valeur
Type ficelle
Valeurs low
high
auto

OpenAI.ImageGenTool

Un outil qui génère des images à partir des modèles d’images GPT.

Modèles valides :

gpt-image-1
gpt-image-1-mini
Nom Type Descriptif Obligatoire Par défaut
background enum Type d’arrière-plan pour l’image générée. Valeurs possibles : transparent,
opaque, ou auto. Par défaut : auto.
Valeurs possibles : transparent, , opaqueauto
Non
input_fidelity OpenAI.InputFidelity ou null Non
masque_d'image_d'entrée OpenAI.ImageGenToolInputImageMask Non
└ file_id ficelle Non
└ image_url ficelle Non
modèle chaîne (voir les modèles valides ci-dessous) Non
moderation enum Niveau de modération de l’image générée. Par défaut : auto.
Valeurs possibles : auto, low
Non
compression_de_sortie entier Niveau de compression de l’image de sortie. Par défaut : 100.
Contraintes : min : 0, max : 100
Non 100
format de sortie enum Format de sortie de l’image générée. Un des png, ou webp
jpeg. Par défaut : png.
Valeurs possibles : png, , webpjpeg
Non
images partielles entier Nombre d’images partielles à générer en mode streaming, de 0 (valeur par défaut) à 3.
Contraintes : min : 0, max : 3
Non
qualité enum Qualité de l’image générée. Un de low, medium, high,
ou auto. Par défaut : auto.
Valeurs possibles : low, , mediumhigh,auto
Non
taille enum Taille de l’image générée. Valeurs possibles : 1024x1024, 1024x1536,
1536x1024, ou auto. Par défaut : auto.
Valeurs possibles : 1024x1024, , 1024x15361536x1024,auto
Non
type enum Type de l’outil de génération d’images. A toujours la valeur image_generation.
Valeurs possibles : image_generation
Oui

OpenAI.ImageGenToolInputImageMask

Nom Type Descriptif Obligatoire Par défaut
identifiant_de_fichier ficelle Non
image_url ficelle Non

OpenAI.IncludeEnum

Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :

  • web_search_call.action.sources: incluez les sources de l’appel de l’outil de recherche web.
  • code_interpreter_call.outputs : inclut les sorties de l’exécution de code Python dans les éléments d’appel de l’outil d’interpréteur de code.
  • computer_call_output.output.image_url : incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.
  • file_search_call.results : incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.
  • message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.
  • message.output_text.logprobs : incluez des journaux d’activité avec des messages d’assistant.
  • reasoning.encrypted_content : inclut une version chiffrée des jetons de raisonnement dans les sorties d’éléments de raisonnement. Cela permet d'utiliser des éléments de raisonnement dans des conversations à plusieurs tours lors de l'utilisation de l'API Réponses de manière sans état (comme lorsque le paramètre store est défini sur false, ou lorsqu'une organisation est inscrite dans le programme de rétention de données zéro).
Propriété Valeur
Description Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :
  • web_search_call.action.sources: incluez les sources de l’appel de l’outil de recherche web.
  • code_interpreter_call.outputs : inclut les sorties de l’exécution de code Python dans les éléments d’appel de l’outil d’interpréteur de code.
  • computer_call_output.output.image_url : incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.
  • file_search_call.results : incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.
  • message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.
  • message.output_text.logprobs : incluez des journaux d’activité avec des messages d’assistant.
  • reasoning.encrypted_content : inclut une version chiffrée des jetons de raisonnement dans les sorties d’éléments de raisonnement. Cela permet d'utiliser des éléments de raisonnement dans des conversations à plusieurs tours lors de l'utilisation de l'API Réponses de manière sans état (comme lorsque le paramètre store est défini sur false, ou lorsqu'une organisation est inscrite dans le programme de rétention de données zéro). | | Type | chaîne de caractères | | Valeurs | file_search_call.results
    web_search_call.results
    web_search_call.action.sources
    message.input_image.image_url
    computer_call_output.output.image_url
    code_interpreter_call.outputs
    reasoning.encrypted_content
    message.output_text.logprobs |

OpenAI.InputAudio

Entrée audio au modèle.

Nom Type Descriptif Obligatoire Par défaut
input_audio OpenAI.InputAudioInputAudio Oui
type enum Type de l’élément d’entrée. A toujours la valeur input_audio.
Valeurs possibles : input_audio
Oui

OpenAI.InputAudioInputAudio

Nom Type Descriptif Obligatoire Par défaut
données ficelle Oui
format enum
Valeurs possibles : mp3, wav
Oui

OpenAI.InputContent

Discriminateur pour OpenAI.InputContent

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
input_text OpenAI.InputContentInputTextContent
input_image OpenAI.InputContentInputImageContent
input_file OpenAI.InputContentInputFileContent
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.InputContentType Oui

OpenAI.InputContentInputFileContent

Entrée de fichier dans le modèle.

Nom Type Descriptif Obligatoire Par défaut
file_data ficelle Contenu du fichier à envoyer au modèle. Non
identifiant_de_fichier chaîne ou nulle Non
file_url ficelle L’URL du fichier à envoyer au modèle. Non
filename ficelle Nom du fichier à envoyer au modèle. Non
type enum Type de l’élément d’entrée. A toujours la valeur input_file.
Valeurs possibles : input_file
Oui

OpenAI.InputContentInputImageContent

Entrée d’image dans le modèle. Apprenez à propos des entrées <>image c0.

Nom Type Descriptif Obligatoire Par défaut
detail OpenAI.ImageDetail Oui
identifiant_de_fichier chaîne ou nulle Non
image_url chaîne ou nulle Non
type enum Type de l’élément d’entrée. A toujours la valeur input_image.
Valeurs possibles : input_image
Oui

OpenAI.InputContentInputTextContent

Entrée de texte dans le modèle.

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Entrée de texte dans le modèle. Oui
type enum Type de l’élément d’entrée. A toujours la valeur input_text.
Valeurs possibles : input_text
Oui

OpenAI.InputContentType

Propriété Valeur
Type ficelle
Valeurs input_text
input_image
input_file

OpenAI.InputFidelity

Contrôler l’effort que le modèle exercera pour correspondre au style et aux caractéristiques, en particulier les caractéristiques faciales, des images d’entrée. Ce paramètre est uniquement pris en charge pour gpt-image-1. Non pris en charge pour gpt-image-1-mini. Prend en charge high et low. La valeur par défaut est low.

Propriété Valeur
Type ficelle
Valeurs high
low

OpenAI.InputFileContent

Entrée de fichier dans le modèle.

Nom Type Descriptif Obligatoire Par défaut
file_data ficelle Contenu du fichier à envoyer au modèle. Non
identifiant_de_fichier chaîne ou nulle Non
file_url ficelle L’URL du fichier à envoyer au modèle. Non
filename ficelle Nom du fichier à envoyer au modèle. Non
type enum Type de l’élément d’entrée. A toujours la valeur input_file.
Valeurs possibles : input_file
Oui

OpenAI.InputImageContent

Entrée d’image dans le modèle. Apprenez à propos des entrées <>image c0.

Nom Type Descriptif Obligatoire Par défaut
detail OpenAI.ImageDetail Oui
identifiant_de_fichier chaîne ou nulle Non
image_url chaîne ou nulle Non
type enum Type de l’élément d’entrée. A toujours la valeur input_image.
Valeurs possibles : input_image
Oui

OpenAI.InputItem

Discriminateur pour OpenAI.InputItem

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
message OpenAI.EasyInputMessage
item_reference OpenAI.ItemReferenceParam
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.InputItemType Oui

OpenAI.InputItemType

Propriété Valeur
Type ficelle
Valeurs message
item_reference

OpenAI.InputMessageContentList

Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant différents types de contenu.

Tableau de : OpenAI.InputContent

OpenAI.InputMessageResource

Nom Type Descriptif Obligatoire Par défaut
contenu OpenAI.InputMessageContentList Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant un contenu différent
types.
Oui
id ficelle L’ID unique de l’entrée du message. Oui
role enum Rôle de la saisie de message. Valeurs possibles : user, system ou developer.
Valeurs possibles : user, , systemdeveloper
Oui
status enum État de l’élément. Un des in_progress, ou completed
incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.
Valeurs possibles : in_progress, , completedincomplete
Non
type enum Type de l’entrée de message. Toujours défini sur message.
Valeurs possibles : message
Oui

OpenAI.InputParam

Entrées de texte, d’image ou de fichier dans le modèle, utilisées pour générer une réponse. Pour en savoir plus:

Type : chaîne ou tableau d’OpenAI.InputItem

Entrées de texte, d’image ou de fichier dans le modèle, utilisées pour générer une réponse. Pour en savoir plus:

OpenAI.InputTextContent

Entrée de texte dans le modèle.

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Entrée de texte dans le modèle. Oui
type enum Type de l’élément d’entrée. A toujours la valeur input_text.
Valeurs possibles : input_text
Oui

OpenAI.ItemReferenceParam

Identificateur interne d’un élément à référencer.

Nom Type Descriptif Obligatoire Par défaut
id ficelle ID de l’élément à référencer. Oui
type enum Type d’élément à référencer. A toujours la valeur item_reference.
Valeurs possibles : item_reference
Oui

OpenAI.ItemResource

Élément de contenu utilisé pour générer une réponse.

Discriminant pour OpenAI.ItemResource

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
message OpenAI.InputMessageResource
output_message OpenAI.ItemResourceOutputMessage
file_search_call OpenAI.ItemResourceFileSearchToolCall
computer_call OpenAI.ItemResourceComputerToolCall
computer_call_output OpenAI.ItemResourceComputerToolCallOutputResource
web_search_call OpenAI.ItemResourceWebSearchToolCall
function_call OpenAI.ItemResourceFunctionToolCallResource
function_call_output OpenAI.ItemResourceFunctionToolCallOutputResource
image_generation_call OpenAI.ItemResourceImageGenToolCall
code_interpreter_call OpenAI.ItemResourceCodeInterpreterToolCall
local_shell_call OpenAI.ItemResourceLocalShellToolCall
local_shell_call_output OpenAI.ItemResourceLocalShellToolCallOutput
shell_call OpenAI.ItemResourceFunctionShellCall
shell_call_output OpenAI.ItemResourceFunctionShellCallOutput
apply_patch_call OpenAI.ItemResourceApplyPatchToolCall
apply_patch_call_output OpenAI.ItemResourceApplyPatchToolCallOutput
mcp_list_tools OpenAI.ItemResourceMcpListTools
mcp_approval_request OpenAI.ItemResourceMcpApprovalRequest
mcp_approval_response OpenAI.ItemResourceMcpApprovalResponseResource
mcp_call OpenAI.ItemResourceMcpToolCall
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.ItemResourceType Oui

OpenAI.ItemResourceApplyPatchToolCall

Appel d’outil qui applique des différences de fichier en créant, supprimant ou mettant à jour des fichiers.

Nom Type Descriptif Obligatoire Par défaut
call_id ficelle L’ID unique de l’appel à l’outil de patch apply généré par le modèle. Oui
created_by ficelle ID de l’entité qui a créé cet appel d’outil. Non
id ficelle ID unique de l’appel de l’outil apply patch. Renseigné lorsque cet élément est retourné via l’API. Oui
opération OpenAI.ApplyPatchFileOperation Une des opérations create_file, delete_file ou update_file appliquées via apply_patch. Oui
└─ Type OpenAI.ApplyPatchFileOperationType Oui
status OpenAI.ApplyPatchCallStatus Oui
type enum Type de l’élément. A toujours la valeur apply_patch_call.
Valeurs possibles : apply_patch_call
Oui

OpenAI.ItemResourceApplyPatchToolCallOutput

Sortie émise par un appel d’outil de correctif d’application.

Nom Type Descriptif Obligatoire Par défaut
call_id ficelle L’ID unique de l’appel à l’outil de patch apply généré par le modèle. Oui
created_by ficelle ID de l’entité qui a créé cette sortie d’appel d’outil. Non
id ficelle ID unique de la sortie d’appel de l’outil appliquer le correctif. Renseigné lorsque cet élément est retourné via l’API. Oui
output chaîne ou nulle Non
status OpenAI.ApplyPatchCallOutputStatus Oui
type enum Type de l’élément. A toujours la valeur apply_patch_call_output.
Valeurs possibles : apply_patch_call_output
Oui

OpenAI.ItemResourceCodeInterpreterToolCall

Un appel d’outil pour exécuter du code.

Nom Type Descriptif Obligatoire Par défaut
code chaîne ou nulle Oui
container_id ficelle ID du conteneur utilisé pour exécuter le code. Oui
id ficelle ID unique de l’appel de l’outil interpréteur de code. Oui
sorties tableau d’OpenAI.CodeInterpreterOutputLogs ou OpenAI.CodeInterpreterOutputImage ou null Oui
status enum Le statut de l’appel de l’outil Interpréteur de code. Les valeurs acceptables sont : in_progress, completed, incomplete, interpreting et failed.
Valeurs possibles : in_progress, , completedincomplete, interpreting,failed
Oui
type enum Type de l’appel de l’outil interpréteur de code. A toujours la valeur code_interpreter_call.
Valeurs possibles : code_interpreter_call
Oui

OpenAI.ItemResourceComputerToolCall

Un appel d’outil à un outil d’utilisation d’ordinateur. Voir le guide d’utilisation ordinateur pour plus d’informations.

Nom Type Descriptif Obligatoire Par défaut
action OpenAI.ComputerAction Oui
call_id ficelle Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie. Oui
id ficelle ID unique de l’appel informatique. Oui
pending_safety_checks tableau d’OpenAI.ComputerCallSafetyCheckParam Les vérifications de sécurité en attente pour l'appel informatique. Oui
status enum État de l’élément. Un des in_progress, ou completed
incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.
Valeurs possibles : in_progress, , completedincomplete
Oui
type enum Type de l’appel d’ordinateur. A toujours la valeur computer_call.
Valeurs possibles : computer_call
Oui

OpenAI.ItemResourceComputerToolCallOutputResource

Nom Type Descriptif Obligatoire Par défaut
acknowledged_safety_checks tableau d’OpenAI.ComputerCallSafetyCheckParam Les vérifications de sécurité signalées par l’API qui ont été reconnues par le
développeur
Non
call_id ficelle L'identifiant de l’appel de l’outil informatique qui a produit la sortie. Oui
id ficelle Identifiant de la sortie de l'outil informatique utilisé. Non
output OpenAI.ComputerScreenshotImage Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur. Oui
status enum État de l’entrée de message. Un des in_progress, ou completed
incomplete. Rempli lorsque les éléments d’entrée sont retournés via l’API.
Valeurs possibles : in_progress, , completedincomplete
Non
type enum Type de sortie de l’appel de l’outil informatique. A toujours la valeur computer_call_output.
Valeurs possibles : computer_call_output
Oui

OpenAI.ItemResourceFileSearchToolCall

Résultats d’un appel d’outil de recherche de fichiers. Consultez le guide de recherche fichier pour plus d’informations.

Nom Type Descriptif Obligatoire Par défaut
id ficelle ID unique de l’appel de l’outil de recherche de fichiers. Oui
queries tableau de chaînes Requêtes utilisées pour rechercher des fichiers. Oui
results tableau d’OpenAI.FileSearchToolCallResults ou null Non
status enum État de l'accès à l’outil de recherche de fichiers. Valeurs possibles : in_progress,
searching, incomplete, ou failed
Valeurs possibles : in_progress, , searchingcompleted, incomplete,failed
Oui
type enum Type de l’appel de l’outil de recherche de fichiers. A toujours la valeur file_search_call.
Valeurs possibles : file_search_call
Oui

OpenAI.ItemResourceFunctionShellCall

Appel d’outil qui exécute une ou plusieurs commandes shell dans un environnement managé.

Nom Type Descriptif Obligatoire Par défaut
action OpenAI.FunctionShellAction Exécutez une commande shell. Oui
Commandes └ ; tableau de chaînes Oui
└max_output_length entier ou null Oui
└timeout_ms entier ou null Oui
call_id ficelle L’ID unique de l’appel de l’outil shell généré par le modèle. Oui
created_by ficelle ID de l’entité qui a créé cet appel d’outil. Non
id ficelle ID unique de l’appel de l’outil shell. Renseigné lorsque cet élément est retourné via l’API. Oui
status OpenAI.LocalShellCallStatus Oui
type enum Type de l’élément. A toujours la valeur shell_call.
Valeurs possibles : shell_call
Oui

OpenAI.ItemResourceFunctionShellCallOutput

Sortie d’un appel d’outil shell émis.

Nom Type Descriptif Obligatoire Par défaut
call_id ficelle L’ID unique de l’appel de l’outil shell généré par le modèle. Oui
created_by ficelle Identificateur de l’acteur qui a créé l’élément. Non
id ficelle ID unique de la sortie de l’appel d’interpréteur de commandes. Renseigné lorsque cet élément est retourné via l’API. Oui
max_output_length entier ou null Oui
output tableau d’OpenAI.FunctionShellCallOutputContent Tableau de contenu de sortie d’appel d’interpréteur de commandes Oui
type enum Type de sortie de l’appel d’interpréteur de commandes. A toujours la valeur shell_call_output.
Valeurs possibles : shell_call_output
Oui

OpenAI.ItemResourceFunctionToolCallOutputResource

Nom Type Descriptif Obligatoire Par défaut
call_id ficelle ID unique de l’appel de l’outil fonctionnel généré par le modèle. Oui
id ficelle Identifiant unique de l'appel de sortie de l'outil fonctionnel. Renseigné lorsque cet élément est renseigné
est retourné via l’API.
Non
output chaîne ou tableau d’OpenAI.FunctionAndCustomToolCallOutput Sortie de l’appel de fonction généré par votre code.
Il peut s’agir d’une chaîne ou d’une liste de contenu de sortie.
Oui
status enum État de l’élément. Un des in_progress, ou completed
incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.
Valeurs possibles : in_progress, , completedincomplete
Non
type enum Type d'appel de sortie de l'outil de fonctionnel. A toujours la valeur function_call_output.
Valeurs possibles : function_call_output
Oui

OpenAI.ItemResourceFunctionToolCallResource

Nom Type Descriptif Obligatoire Par défaut
arguments ficelle Chaîne JSON des arguments à passer à la fonction. Oui
call_id ficelle ID unique de l’appel de l’outil fonctionnel généré par le modèle. Oui
id ficelle Identifiant unique de l'appel de l'outil fonctionnel. Non
nom ficelle Nom de la fonction à exécuter. Oui
status enum État de l’élément. Un des in_progress, ou completed
incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.
Valeurs possibles : in_progress, , completedincomplete
Non
type enum Type d'appel de l'outil fonctionnel. A toujours la valeur function_call.
Valeurs possibles : function_call
Oui

OpenAI.ItemResourceImageGenToolCall

Demande de génération d’image effectuée par le modèle.

Nom Type Descriptif Obligatoire Par défaut
id ficelle L’identifiant unique de l’appel de génération d’image. Oui
résultat chaîne ou nulle Oui
status enum L’état de l’appel de génération d’images.
Valeurs possibles : in_progress, , completedgenerating,failed
Oui
type enum Le type d’appel de génération d’image. A toujours la valeur image_generation_call.
Valeurs possibles : image_generation_call
Oui

OpenAI.ItemResourceLocalShellToolCall

Appel d’outil pour exécuter une commande sur l’interpréteur de commandes local.

Nom Type Descriptif Obligatoire Par défaut
action OpenAI.LocalShellExecAction Exécutez une commande shell sur le serveur. Oui
call_id ficelle ID unique de l’appel de l’outil shell local généré par le modèle. Oui
id ficelle L’identifiant unique de l’appel local de shell. Oui
status enum L’état de l’appel local de coquillage.
Valeurs possibles : in_progress, , completedincomplete
Oui
type enum Le type de l’appel local de la coquille. A toujours la valeur local_shell_call.
Valeurs possibles : local_shell_call
Oui

OpenAI.ItemResourceLocalShellToolCallOutput

Sortie d’un appel d’outil shell local.

Nom Type Descriptif Obligatoire Par défaut
id ficelle ID unique de l’appel de l’outil shell local généré par le modèle. Oui
output ficelle Chaîne JSON de la sortie de l’appel de l’outil shell local. Oui
status chaîne ou nulle Non
type enum Le type de sortie de l’outil local de shell. A toujours la valeur local_shell_call_output.
Valeurs possibles : local_shell_call_output
Oui

OpenAI.ItemResourceMcpApprovalRequest

Demande d'approbation humaine pour l'invocation d'un outil.

Nom Type Descriptif Obligatoire Par défaut
arguments ficelle Chaîne JSON d’arguments pour l’outil. Oui
id ficelle L’identifiant unique de la demande d’approbation. Oui
nom ficelle Nom de l’outil à exécuter. Oui
server_label ficelle Étiquette du serveur MCP effectuant la requête. Oui
type enum Type de l’élément. A toujours la valeur mcp_approval_request.
Valeurs possibles : mcp_approval_request
Oui

OpenAI.ItemResourceMcpApprovalResponseResource

Une réponse à une requête d’approbation de MCP.

Nom Type Descriptif Obligatoire Par défaut
approval_request_id ficelle L’ID de la requête d’approbation à laquelle on répond. Oui
Approuver booléen Indique si la demande a été approuvée. Oui
id ficelle ID unique de la réponse d’approbation Oui
reason chaîne ou nulle Non
type enum Type de l’élément. A toujours la valeur mcp_approval_response.
Valeurs possibles : mcp_approval_response
Oui

OpenAI.ItemResourceMcpListTools

Liste des outils disponibles sur un serveur MCP.

Nom Type Descriptif Obligatoire Par défaut
erreur chaîne ou nulle Non
id ficelle L’identifiant unique de la liste. Oui
server_label ficelle Étiquette du serveur MCP. Oui
outils tableau d’OpenAI.MCPListToolsTools Outils disponibles sur le serveur. Oui
type enum Type de l’élément. A toujours la valeur mcp_list_tools.
Valeurs possibles : mcp_list_tools
Oui

OpenAI.ItemResourceMcpToolCall

Appel d’un outil sur un serveur MCP.

Nom Type Descriptif Obligatoire Par défaut
approval_request_id chaîne ou nulle Non
arguments ficelle Chaîne JSON des arguments passés à l’outil. Oui
erreur chaîne ou nulle Non
id ficelle L’ID unique de l’outil appelle. Oui
nom ficelle Le nom de l’outil qui a été exécuté. Oui
output chaîne ou nulle Non
server_label ficelle Étiquette du serveur MCP exécutant l’outil. Oui
status OpenAI.MCPToolCallStatus Non
type enum Type de l’élément. A toujours la valeur mcp_call.
Valeurs possibles : mcp_call
Oui

OpenAI.ItemResourceOutputMessage

Message de sortie du modèle.

Nom Type Descriptif Obligatoire Par défaut
contenu tableau d’OpenAI.OutputMessageContent Contenu du message de sortie. Oui
id ficelle ID unique du message de sortie. Oui
role enum Rôle du message de sortie. A toujours la valeur assistant.
Valeurs possibles : assistant
Oui
status enum État de l’entrée de message. Un des in_progress, ou completed
incomplete. Rempli lorsque les éléments d’entrée sont retournés via l’API.
Valeurs possibles : in_progress, , completedincomplete
Oui
type enum Type du message de sortie. A toujours la valeur message.
Valeurs possibles : output_message
Oui

OpenAI.ItemResourceType

Propriété Valeur
Type ficelle
Valeurs message
output_message
file_search_call
computer_call
computer_call_output
web_search_call
function_call
function_call_output
image_generation_call
code_interpreter_call
local_shell_call
local_shell_call_output
shell_call
shell_call_output
apply_patch_call
apply_patch_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call

OpenAI.ItemResourceWebSearchToolCall

Les résultats d’un appel d’un outil de recherche Web. Consultez le guide recherche web pour plus d’informations.

Nom Type Descriptif Obligatoire Par défaut
action OpenAI.WebSearchActionSearch ouOpenAI.WebSearchActionOpenPage ou OpenAI.WebSearchActionFind Objet décrivant l’action spécifique effectuée dans cet appel de recherche Web.
Comprend des détails sur la façon dont le modèle a utilisé le Web (rechercher, open_page, trouver).
Oui
id ficelle L’identifiant unique de l’outil de recherche web appelle. Oui
status enum L’état de l’appel d’outil de recherche web.
Valeurs possibles : in_progress, , searchingcompleted,failed
Oui
type enum Le type de l’outil de recherche web appelé. A toujours la valeur web_search_call.
Valeurs possibles : web_search_call
Oui

OpenAI.KeyPressAction

Une collection de séquences de touches que le modèle souhaite effectuer.

Nom Type Descriptif Obligatoire Par défaut
clés tableau de chaînes La combinaison de touches que le modèle demande d’être enfoncée. Il s’agit d’un tableau de chaînes, chacun représentant une clé. Oui
type enum Spécifie le type d’événement. Pour une action de pression de touche, cette propriété est toujours définie à keypress.
Valeurs possibles : keypress
Oui

OpenAI.ListBatchesResponse

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.Batch Oui
premier_identifiant ficelle Non
has_more booléen Oui
last_id ficelle Non
objet enum
Valeurs possibles : list
Oui

OpenAI.ListFilesResponse

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.OpenAIFile Oui
premier_identifiant ficelle Oui
has_more booléen Oui
last_id ficelle Oui
objet ficelle Oui

OpenAI.ListFineTuningCheckpointPermissionResponse

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.FineTuningCheckpointPermission Oui
premier_identifiant chaîne ou nulle Non
has_more booléen Oui
last_id chaîne ou nulle Non
objet enum
Valeurs possibles : list
Oui

OpenAI.ListFineTuningJobCheckpointsResponse

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.FineTuningJobCheckpoint Oui
premier_identifiant chaîne ou nulle Non
has_more booléen Oui
last_id chaîne ou nulle Non
objet enum
Valeurs possibles : list
Oui

OpenAI.ListFineTuningJobEventsResponse

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.FineTuningJobEvent Oui
has_more booléen Oui
objet enum
Valeurs possibles : list
Oui

OpenAI.ListMessagesResponse

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.MessageObject Oui
premier_identifiant ficelle Oui
has_more booléen Oui
last_id ficelle Oui
objet ficelle Oui

OpenAI.ListModelsResponse

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.Model Oui
objet enum
Valeurs possibles : list
Oui

OpenAI.ListPaginatedFineTuningJobsResponse

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.FineTuningJob Oui
has_more booléen Oui
objet enum
Valeurs possibles : list
Oui

OpenAI.ListRunStepsResponse

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.RunStepObject Oui
premier_identifiant ficelle Oui
has_more booléen Oui
last_id ficelle Oui
objet ficelle Oui

OpenAI.ListRunsResponse

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.RunObject Oui
premier_identifiant ficelle Oui
has_more booléen Oui
last_id ficelle Oui
objet ficelle Oui

OpenAI.ListVectorStoreFilesResponse

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.VectorStoreFileObject Oui
premier_identifiant ficelle Oui
has_more booléen Oui
last_id ficelle Oui
objet ficelle Oui

OpenAI.ListVectorStoresResponse

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.VectorStoreObject Oui
premier_identifiant ficelle Oui
has_more booléen Oui
last_id ficelle Oui
objet ficelle Oui

OpenAI.LocalShellCallStatus

Propriété Valeur
Type ficelle
Valeurs in_progress
completed
incomplete

OpenAI.LocalShellExecAction

Exécutez une commande shell sur le serveur.

Nom Type Descriptif Obligatoire Par défaut
commande tableau de chaînes La commande à exécuter. Oui
env objet Variables d’environnement à définir pour la commande. Oui
timeout (délai en ms) entier ou null Non
type enum Type de l’action de l’interpréteur de commandes local. A toujours la valeur exec.
Valeurs possibles : exec
Oui
utilisateur chaîne ou nulle Non
working_directory chaîne ou nulle Non

OpenAI.LocalShellToolParam

Outil qui permet au modèle d’exécuter des commandes shell dans un environnement local.

Nom Type Descriptif Obligatoire Par défaut
type enum Type de l’outil shell local. A toujours la valeur local_shell.
Valeurs possibles : local_shell
Oui

OpenAI.LogProb

Probabilité du journal d’un jeton.

Nom Type Descriptif Obligatoire Par défaut
octets tableau d’entiers Oui
logprob nombre Oui
token ficelle Oui
top_logprobs tableau d’OpenAI.TopLogProb Oui

OpenAI.MCPListToolsTool

Outil disponible sur un serveur MCP.

Nom Type Descriptif Obligatoire Par défaut
annotations OpenAI.MCPListToolsToolAnnotations ou null Non
descriptif chaîne ou nulle Non
input_schema OpenAI.MCPListToolsToolInputSchema Oui
nom ficelle Nom de l’outil. Oui

OpenAI.MCPListToolsToolAnnotations

Type : objet

OpenAI.MCPListToolsToolInputSchema

Type : objet

OpenAI.MCPTool

Donnez au modèle l’accès à des outils supplémentaires via des serveurs MCP (Remote Model Context Protocol). En savoir plus sur MCP.

Nom Type Descriptif Obligatoire Par défaut
outils_autorisés tableau de chaînes ou OpenAI.MCPToolFilter ou null Non
autorisation ficelle Un jeton d’access OAuth pouvant être utilisé avec un serveur MCP distant, soit
avec une URL de serveur MCP personnalisée ou un connecteur de service. Votre application.
doit gérer le flux d’autorisation OAuth et fournir le jeton ici.
Non
connector_id enum Identifiant pour les connecteurs de service, comme ceux disponibles dans ChatGPT. Oneof
server_url ou connector_id doit être fourni. En savoir plus sur le service
connecteurs ici.
Les valeurs actuellement prises en charge connector_id sont :
-Dropbox: connector_dropbox
-Gmail: connector_gmail
- Calendrier Google : connector_googlecalendar
- Google Drive : connector_googledrive
- Microsoft Teams : connector_microsoftteams
- Calendrier Outlook : connector_outlookcalendar
- E-mail Outlook : connector_outlookemail
-Sharepoint: connector_sharepoint
Valeurs possibles : connector_dropbox, , connector_gmail, connector_googlecalendarconnector_googledriveconnector_microsoftteamsconnector_outlookcalendar, , connector_outlookemailconnector_sharepoint
Non
headers objet ou null Non
require_approval OpenAI.MCPToolRequireApproval ou chaîne ou null Non
server_description ficelle Description optionnelle du serveur MCP, utilisée pour fournir plus de contexte. Non
server_label ficelle Étiquette de ce serveur MCP, utilisée pour l’identifier dans les appels d’outils. Oui
URL du serveur ficelle URL du serveur MCP. L’une ou l’autre server_urlconnector_id doit être
Fourni.
Non
type enum Type de l’outil MCP. A toujours la valeur mcp.
Valeurs possibles : mcp
Oui

OpenAI.MCPToolCallStatus

Propriété Valeur
Type ficelle
Valeurs in_progress
completed
incomplete
calling
failed

OpenAI.MCPToolFilter

Un objet filtre pour spécifier quels outils sont autorisés.

Nom Type Descriptif Obligatoire Par défaut
read_only booléen Indique si un outil modifie les données ou s’il est en lecture seule. Si un
Le serveur MCP est annoté avec readOnlyHint,
il correspond à ce filtre.
Non
tool_names tableau de chaînes Liste des noms d’outils autorisés. Non

OpenAI.MCPToolRequireApproval

Nom Type Descriptif Obligatoire Par défaut
toujours OpenAI.MCPToolFilter Un objet filtre pour spécifier quels outils sont autorisés. Non
jamais OpenAI.MCPToolFilter Un objet filtre pour spécifier quels outils sont autorisés. Non

OpenAI.MessageContent

Discriminateur pour OpenAI.MessageContent

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
image_url OpenAI.MessageContentImageUrlObject
text OpenAI.MessageContentTextObject
refusal OpenAI.MessageContentRefusalObject
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.MessageContentType Oui

OpenAI.MessageContentImageFileObject

Fait référence à un fichier image dans le contenu d’un message.

Nom Type Descriptif Obligatoire Par défaut
image_file OpenAI.MessageContentImageFileObjectImageFileFile Oui
type enum A toujours la valeur image_file.
Valeurs possibles : image_file
Oui

OpenAI.MessageContentImageFileObjectImageFileFile

Nom Type Descriptif Obligatoire Par défaut
detail enum
Valeurs possibles : auto, , lowhigh
Non
identifiant_de_fichier ficelle Oui

OpenAI.MessageContentImageUrlObject

Fait référence à une URL d’image dans le contenu d’un message.

Nom Type Descriptif Obligatoire Par défaut
image_url OpenAI.MessageContentImageUrlObjectImageUrl Oui
type enum Le type de la partie contenu.
Valeurs possibles : image_url
Oui

OpenAI.MessageContentImageUrlObjectImageUrl

Nom Type Descriptif Obligatoire Par défaut
detail enum
Valeurs possibles : auto, , lowhigh
Non
url ficelle Oui

OpenAI.MessageContentRefusalObject

Contenu de refus généré par l’assistant.

Nom Type Descriptif Obligatoire Par défaut
refusal ficelle Oui
type enum A toujours la valeur refusal.
Valeurs possibles : refusal
Oui

OpenAI.MessageContentTextAnnotationsFileCitationObject

Une citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’Assistant ou au message. Généré lorsque l’Assistant utilise l’outil « file_search » pour rechercher des fichiers.

Nom Type Descriptif Obligatoire Par défaut
end_index entier Contraintes : min : 0 Oui
file_citation OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation Oui
start_index entier Contraintes : min : 0 Oui
texte ficelle Le texte dans le contenu du message qui doit être remplacé. Oui
type enum A toujours la valeur file_citation.
Valeurs possibles : file_citation
Oui

OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation

Nom Type Descriptif Obligatoire Par défaut
identifiant_de_fichier ficelle Oui

OpenAI.MessageContentTextAnnotationsFilePathObject

Une URL du fichier généré lorsque l’Assistant a utilisé l’outil code_interpreter pour générer un fichier.

Nom Type Descriptif Obligatoire Par défaut
end_index entier Contraintes : min : 0 Oui
file_path OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath Oui
start_index entier Contraintes : min : 0 Oui
texte ficelle Le texte dans le contenu du message qui doit être remplacé. Oui
type enum A toujours la valeur file_path.
Valeurs possibles : file_path
Oui

OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath

Nom Type Descriptif Obligatoire Par défaut
identifiant_de_fichier ficelle Oui

OpenAI.MessageContentTextObject

Le contenu texte qui fait partie d’un message.

Nom Type Descriptif Obligatoire Par défaut
texte OpenAI.MessageContentTextObjectTextText Oui
type enum A toujours la valeur text.
Valeurs possibles : text
Oui

OpenAI.MessageContentTextObjectTextText

Nom Type Descriptif Obligatoire Par défaut
annotations tableau d’OpenAI.TextAnnotation Oui
valeur ficelle Oui

OpenAI.MessageContentType

Propriété Valeur
Type ficelle
Valeurs image_file
image_url
text
refusal

OpenAI.MessageObject

Représente un message dans un thread.

Nom Type Descriptif Obligatoire Par défaut
assistant_id chaîne ou nulle Oui
attachments tableau d’OpenAI.MessageObjectAttachments ou null Oui
terminé_à chaîne ou nulle Oui
contenu tableau d’OpenAI.MessageContent Contenu du message dans le tableau de texte et/ou d’images. Oui
date_de_création entier Horodatage Unix (en secondes) de création du message. Oui
id ficelle Identificateur, qui peut être référencé dans les points de terminaison d’API. Oui
incomplete_at chaîne ou nulle Oui
incomplete_details OpenAI.MessageObjectIncompleteDetails ou null Oui
metadata OpenAI.Metadata ou null Oui
objet enum Le type d’objet, qui est toujours thread.message.
Valeurs possibles : thread.message
Oui
role enum Entité ayant produit le message. Un de user ou assistant.
Valeurs possibles : user, assistant
Oui
run_id chaîne ou nulle Oui
status enum L’état du message, qui peut être in_progress, incomplete ou completed.
Valeurs possibles : in_progress, , incompletecompleted
Oui
thread_id ficelle ID de thread auquel ce message appartient. Oui

OpenAI.MessageObjectAttachments

Nom Type Descriptif Obligatoire Par défaut
identifiant_de_fichier ficelle Non
outils tableau d’OpenAI.AssistantToolsCode ou OpenAI.AssistantToolsFileSearchTypeOnly Non

OpenAI.MessageObjectIncompleteDetails

Nom Type Descriptif Obligatoire Par défaut
reason enum
Valeurs possibles : content_filter, , max_tokensrun_cancelled, run_expired,run_failed
Oui

OpenAI.MessageRequestContentTextObject

Le contenu texte qui fait partie d’un message.

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Contenu texte à envoyer au modèle Oui
type enum A toujours la valeur text.
Valeurs possibles : text
Oui

OpenAI.MessageRole

Propriété Valeur
Type ficelle
Valeurs unknown
user
assistant
system
critic
discriminator
developer
tool

OpenAI.MessageStatus

Propriété Valeur
Type ficelle
Valeurs in_progress
completed
incomplete

OpenAI.Metadata

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.

Type : objet

OpenAI.Model

Décrit une offre de modèle OpenAI qui peut être utilisée avec l’API.

Nom Type Descriptif Obligatoire Par défaut
créé entier Horodatage Unix (en secondes) lors de la création du modèle. Oui
id ficelle Identificateur de modèle, qui peut être référencé dans les points de terminaison d’API. Oui
objet enum Type d’objet, qui est toujours « model ».
Valeurs possibles : model
Oui
owned_by ficelle Organisation propriétaire du modèle. Oui

OpenAI.ModifyMessageRequest

Nom Type Descriptif Obligatoire Par défaut
metadata OpenAI.Metadata ou null Non

OpenAI.ModifyRunRequest

Nom Type Descriptif Obligatoire Par défaut
metadata OpenAI.Metadata ou null Non

OpenAI.ModifyThreadRequest

Nom Type Descriptif Obligatoire Par défaut
metadata OpenAI.Metadata ou null Non
tool_resources OpenAI.ModifyThreadRequestToolResources ou null Non

OpenAI.ModifyThreadRequestToolResources

Nom Type Descriptif Obligatoire Par défaut
code_interpreter OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter Non
file_search OpenAI.ModifyThreadRequestToolResourcesFileSearch Non

OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter

Nom Type Descriptif Obligatoire Par défaut
identifiants_de_fichiers tableau de chaînes Non

OpenAI.ModifyThreadRequestToolResourcesFileSearch

Nom Type Descriptif Obligatoire Par défaut
vector_store_ids tableau de chaînes Non

OpenAI.Move

Action de déplacement de la souris.

Nom Type Descriptif Obligatoire Par défaut
type enum Spécifie le type d’événement. Pour une action de déplacer, cette propriété est
toujours défini sur move.
Valeurs possibles : move
Oui
x entier Coordonnée x vers laquelle se déplacer. Oui
y entier La coordonnée y vers laquelle se déplacer. Oui

OpenAI.NoiseReductionType

Type de réduction du bruit. near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.

Propriété Valeur
Type ficelle
Valeurs near_field
far_field

OpenAI.OpenAIFile

L’objet File représente un document qui a été chargé dans OpenAI.

Nom Type Descriptif Obligatoire Par défaut
octets entier Taille du fichier, en octets. Oui
date_de_création entier Horodatage Unix (en secondes) pour lequel le fichier a été créé. Oui
expires_at entier Horodatage Unix (en secondes) pour l’expiration du fichier. Non
filename ficelle Le nom du fichier. Oui
id ficelle Identificateur du fichier, qui peut être référencé dans les points de terminaison d’API. Oui
objet enum Le type d’objet, qui est toujours file.
Valeurs possibles : file
Oui
objectif enum Objectif prévu du fichier. Les valeurs prises en charge sont assistants, assistants_output, batch, batch_output, fine-tune et fine-tune-results.
Valeurs possibles : assistants, assistants_output, batch, batch_output, fine-tune, fine-tune-results, evals
Oui
status enum
Valeurs possibles : uploaded, pending, running, processed, error, deleting, deleted
Oui
détails du statut chaîne (déconseillée) Deprecated. Pour plus d’informations sur la raison de l’échec de la validation d’un fichier d’entraînement de réglage précis, consultez le error champ sur fine_tuning.job. Non

OpenAI.OtherChunkingStrategyResponseParam

Cet élément est retourné quand la stratégie de segmentation est inconnue. Généralement, cela est dû au fait que le fichier a été indexé avant l’introduction du concept chunking_strategy dans l’API.

Nom Type Descriptif Obligatoire Par défaut
type enum A toujours la valeur other.
Valeurs possibles : other
Oui

OpenAI.OutputContent

Discriminateur pour OpenAI.OutputContent

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
output_text OpenAI.OutputContentOutputTextContent
refusal OpenAI.OutputContentRefusalContent
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.OutputContentType Oui

OpenAI.OutputContentOutputTextContent

Sortie de texte du modèle.

Nom Type Descriptif Obligatoire Par défaut
annotations tableau d’OpenAI.Annotation Annotations de la sortie de texte. Oui
logprobs tableau d’OpenAI.LogProb Non
texte ficelle Le texte généré par le modèle. Oui
type enum Type du texte de sortie. A toujours la valeur output_text.
Valeurs possibles : output_text
Oui

OpenAI.OutputContentRefusalContent

Refus du modèle.

Nom Type Descriptif Obligatoire Par défaut
refusal ficelle Explication du refus du modèle. Oui
type enum Type de refus. A toujours la valeur refusal.
Valeurs possibles : refusal
Oui

OpenAI.OutputContentType

Propriété Valeur
Type ficelle
Valeurs output_text
refusal
reasoning_text

OpenAI.OutputItem

Discriminateur pour OpenAI.OutputItem

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
output_message OpenAI.OutputItemOutputMessage
file_search_call OpenAI.OutputItemFileSearchToolCall
function_call OpenAI.OutputItemFunctionToolCall
web_search_call OpenAI.OutputItemWebSearchToolCall
computer_call OpenAI.OutputItemComputerToolCall
reasoning OpenAI.OutputItemReasoningItem
compaction OpenAI.OutputItemCompactionBody
image_generation_call OpenAI.OutputItemImageGenToolCall
code_interpreter_call OpenAI.OutputItemCodeInterpreterToolCall
local_shell_call OpenAI.OutputItemLocalShellToolCall
shell_call OpenAI.OutputItemFunctionShellCall
shell_call_output OpenAI.OutputItemFunctionShellCallOutput
apply_patch_call OpenAI.OutputItemApplyPatchToolCall
apply_patch_call_output OpenAI.OutputItemApplyPatchToolCallOutput
mcp_call OpenAI.OutputItemMcpToolCall
mcp_list_tools OpenAI.OutputItemMcpListTools
mcp_approval_request OpenAI.OutputItemMcpApprovalRequest
custom_tool_call OpenAI.OutputItemCustomToolCall
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.OutputItemType Oui

OpenAI.OutputItemApplyPatchToolCall

Appel d’outil qui applique des différences de fichier en créant, supprimant ou mettant à jour des fichiers.

Nom Type Descriptif Obligatoire Par défaut
call_id ficelle L’ID unique de l’appel à l’outil de patch apply généré par le modèle. Oui
created_by ficelle ID de l’entité qui a créé cet appel d’outil. Non
id ficelle ID unique de l’appel de l’outil apply patch. Renseigné lorsque cet élément est retourné via l’API. Oui
opération OpenAI.ApplyPatchFileOperation Une des opérations create_file, delete_file ou update_file appliquées via apply_patch. Oui
└─ Type OpenAI.ApplyPatchFileOperationType Oui
status OpenAI.ApplyPatchCallStatus Oui
type enum Type de l’élément. A toujours la valeur apply_patch_call.
Valeurs possibles : apply_patch_call
Oui

OpenAI.OutputItemApplyPatchToolCallOutput

Sortie émise par un appel d’outil de correctif d’application.

Nom Type Descriptif Obligatoire Par défaut
call_id ficelle L’ID unique de l’appel à l’outil de patch apply généré par le modèle. Oui
created_by ficelle ID de l’entité qui a créé cette sortie d’appel d’outil. Non
id ficelle ID unique de la sortie d’appel de l’outil appliquer le correctif. Renseigné lorsque cet élément est retourné via l’API. Oui
output chaîne ou nulle Non
status OpenAI.ApplyPatchCallOutputStatus Oui
type enum Type de l’élément. A toujours la valeur apply_patch_call_output.
Valeurs possibles : apply_patch_call_output
Oui

OpenAI.OutputItemCodeInterpreterToolCall

Un appel d’outil pour exécuter du code.

Nom Type Descriptif Obligatoire Par défaut
code chaîne ou nulle Oui
container_id ficelle ID du conteneur utilisé pour exécuter le code. Oui
id ficelle ID unique de l’appel de l’outil interpréteur de code. Oui
sorties tableau d’OpenAI.CodeInterpreterOutputLogs ou OpenAI.CodeInterpreterOutputImage ou null Oui
status enum Le statut de l’appel de l’outil Interpréteur de code. Les valeurs acceptables sont : in_progress, completed, incomplete, interpreting et failed.
Valeurs possibles : in_progress, , completedincomplete, interpreting,failed
Oui
type enum Type de l’appel de l’outil interpréteur de code. A toujours la valeur code_interpreter_call.
Valeurs possibles : code_interpreter_call
Oui

OpenAI.OutputItemCompactionBody

Un élément de compactage généré par l’APIv1/responses/compact.

Nom Type Descriptif Obligatoire Par défaut
created_by ficelle Identificateur de l’acteur qui a créé l’élément. Non
encrypted_content ficelle Contenu chiffré généré par compactage. Oui
id ficelle L’identifiant unique de l’élément de compactage. Oui
type enum Type de l’élément. A toujours la valeur compaction.
Valeurs possibles : compaction
Oui

OpenAI.OutputItemComputerToolCall

Un appel d’outil à un outil d’utilisation d’ordinateur. Voir le guide d’utilisation ordinateur pour plus d’informations.

Nom Type Descriptif Obligatoire Par défaut
action OpenAI.ComputerAction Oui
call_id ficelle Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie. Oui
id ficelle ID unique de l’appel informatique. Oui
pending_safety_checks tableau d’OpenAI.ComputerCallSafetyCheckParam Les vérifications de sécurité en attente pour l'appel informatique. Oui
status enum État de l’élément. Un des in_progress, ou completed
incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.
Valeurs possibles : in_progress, , completedincomplete
Oui
type enum Type de l’appel d’ordinateur. A toujours la valeur computer_call.
Valeurs possibles : computer_call
Oui

OpenAI.OutputItemCustomToolCall

Un appel à un outil personnalisé créé par le modèle.

Nom Type Descriptif Obligatoire Par défaut
call_id ficelle Un identifiant utilisé pour associer cet appel d’outil personnalisé à une sortie d’appel d’outil. Oui
id ficelle L’ID unique de l’outil personnalisé s’appelle sur la plateforme OpenAI. Non
entrée ficelle L’entrée pour l’appel d’outil personnalisé généré par le modèle. Oui
nom ficelle Nom de l’outil personnalisé appelé. Oui
type enum Le type d’appel de l’outil personnalisé. A toujours la valeur custom_tool_call.
Valeurs possibles : custom_tool_call
Oui

OpenAI.OutputItemFileSearchToolCall

Résultats d’un appel d’outil de recherche de fichiers. Consultez le guide de recherche fichier pour plus d’informations.

Nom Type Descriptif Obligatoire Par défaut
id ficelle ID unique de l’appel de l’outil de recherche de fichiers. Oui
queries tableau de chaînes Requêtes utilisées pour rechercher des fichiers. Oui
results tableau d’OpenAI.FileSearchToolCallResults ou null Non
status enum État de l'accès à l’outil de recherche de fichiers. Valeurs possibles : in_progress,
searching, incomplete, ou failed
Valeurs possibles : in_progress, , searchingcompleted, incomplete,failed
Oui
type enum Type de l’appel de l’outil de recherche de fichiers. A toujours la valeur file_search_call.
Valeurs possibles : file_search_call
Oui

OpenAI.OutputItemFunctionShellCall

Appel d’outil qui exécute une ou plusieurs commandes shell dans un environnement managé.

Nom Type Descriptif Obligatoire Par défaut
action OpenAI.FunctionShellAction Exécutez une commande shell. Oui
Commandes └ ; tableau de chaînes Oui
└max_output_length entier ou null Oui
└timeout_ms entier ou null Oui
call_id ficelle L’ID unique de l’appel de l’outil shell généré par le modèle. Oui
created_by ficelle ID de l’entité qui a créé cet appel d’outil. Non
id ficelle ID unique de l’appel de l’outil shell. Renseigné lorsque cet élément est retourné via l’API. Oui
status OpenAI.LocalShellCallStatus Oui
type enum Type de l’élément. A toujours la valeur shell_call.
Valeurs possibles : shell_call
Oui

OpenAI.OutputItemFunctionShellCallOutput

Sortie d’un appel d’outil shell émis.

Nom Type Descriptif Obligatoire Par défaut
call_id ficelle L’ID unique de l’appel de l’outil shell généré par le modèle. Oui
created_by ficelle Identificateur de l’acteur qui a créé l’élément. Non
id ficelle ID unique de la sortie de l’appel d’interpréteur de commandes. Renseigné lorsque cet élément est retourné via l’API. Oui
max_output_length entier ou null Oui
output tableau d’OpenAI.FunctionShellCallOutputContent Tableau de contenu de sortie d’appel d’interpréteur de commandes Oui
type enum Type de sortie de l’appel d’interpréteur de commandes. A toujours la valeur shell_call_output.
Valeurs possibles : shell_call_output
Oui

OpenAI.OutputItemFunctionToolCall

Un appel d’outil pour exécuter une fonction. Pour plus d’informations, consultez le guide d’appel de fonction .

Nom Type Descriptif Obligatoire Par défaut
arguments ficelle Chaîne JSON des arguments à passer à la fonction. Oui
call_id ficelle ID unique de l’appel de l’outil fonctionnel généré par le modèle. Oui
id ficelle Identifiant unique de l'appel de l'outil fonctionnel. Non
nom ficelle Nom de la fonction à exécuter. Oui
status enum État de l’élément. Un des in_progress, ou completed
incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.
Valeurs possibles : in_progress, , completedincomplete
Non
type enum Type d'appel de l'outil fonctionnel. A toujours la valeur function_call.
Valeurs possibles : function_call
Oui

OpenAI.OutputItemImageGenToolCall

Demande de génération d’image effectuée par le modèle.

Nom Type Descriptif Obligatoire Par défaut
id ficelle L’identifiant unique de l’appel de génération d’image. Oui
résultat chaîne ou nulle Oui
status enum L’état de l’appel de génération d’images.
Valeurs possibles : in_progress, , completedgenerating,failed
Oui
type enum Le type d’appel de génération d’image. A toujours la valeur image_generation_call.
Valeurs possibles : image_generation_call
Oui

OpenAI.OutputItemLocalShellToolCall

Appel d’outil pour exécuter une commande sur l’interpréteur de commandes local.

Nom Type Descriptif Obligatoire Par défaut
action OpenAI.LocalShellExecAction Exécutez une commande shell sur le serveur. Oui
call_id ficelle ID unique de l’appel de l’outil shell local généré par le modèle. Oui
id ficelle L’identifiant unique de l’appel local de shell. Oui
status enum L’état de l’appel local de coquillage.
Valeurs possibles : in_progress, , completedincomplete
Oui
type enum Le type de l’appel local de la coquille. A toujours la valeur local_shell_call.
Valeurs possibles : local_shell_call
Oui

OpenAI.OutputItemMcpApprovalRequest

Demande d'approbation humaine pour l'invocation d'un outil.

Nom Type Descriptif Obligatoire Par défaut
arguments ficelle Chaîne JSON d’arguments pour l’outil. Oui
id ficelle L’identifiant unique de la demande d’approbation. Oui
nom ficelle Nom de l’outil à exécuter. Oui
server_label ficelle Étiquette du serveur MCP effectuant la requête. Oui
type enum Type de l’élément. A toujours la valeur mcp_approval_request.
Valeurs possibles : mcp_approval_request
Oui

OpenAI.OutputItemMcpListTools

Liste des outils disponibles sur un serveur MCP.

Nom Type Descriptif Obligatoire Par défaut
erreur chaîne ou nulle Non
id ficelle L’identifiant unique de la liste. Oui
server_label ficelle Étiquette du serveur MCP. Oui
outils tableau d’OpenAI.MCPListToolsTools Outils disponibles sur le serveur. Oui
type enum Type de l’élément. A toujours la valeur mcp_list_tools.
Valeurs possibles : mcp_list_tools
Oui

OpenAI.OutputItemMcpToolCall

Appel d’un outil sur un serveur MCP.

Nom Type Descriptif Obligatoire Par défaut
approval_request_id chaîne ou nulle Non
arguments ficelle Chaîne JSON des arguments passés à l’outil. Oui
erreur chaîne ou nulle Non
id ficelle L’ID unique de l’outil appelle. Oui
nom ficelle Le nom de l’outil qui a été exécuté. Oui
output chaîne ou nulle Non
server_label ficelle Étiquette du serveur MCP exécutant l’outil. Oui
status OpenAI.MCPToolCallStatus Non
type enum Type de l’élément. A toujours la valeur mcp_call.
Valeurs possibles : mcp_call
Oui

OpenAI.OutputItemOutputMessage

Message de sortie du modèle.

Nom Type Descriptif Obligatoire Par défaut
contenu tableau d’OpenAI.OutputMessageContent Contenu du message de sortie. Oui
id ficelle ID unique du message de sortie. Oui
role enum Rôle du message de sortie. A toujours la valeur assistant.
Valeurs possibles : assistant
Oui
status enum État de l’entrée de message. Un des in_progress, ou completed
incomplete. Rempli lorsque les éléments d’entrée sont retournés via l’API.
Valeurs possibles : in_progress, , completedincomplete
Oui
type enum Type du message de sortie. A toujours la valeur message.
Valeurs possibles : output_message
Oui

OpenAI.OutputItemReasoningItem

Description de la chaîne de pensée utilisée par un modèle de raisonnement lors de la génération d’une réponse. Assurez-vous d’inclure ces éléments dans votre input de l’API Réponses pour les tours suivants d’une conversation si vous gérez manuellement context.

Nom Type Descriptif Obligatoire Par défaut
contenu tableau d’OpenAI.ReasoningTextContent Contenu texte de raisonnement. Non
encrypted_content chaîne ou nulle Non
id ficelle Identificateur unique du contenu du raisonnement. Oui
status enum État de l’élément. Un des in_progress, ou completed
incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.
Valeurs possibles : in_progress, , completedincomplete
Non
summary tableau d’OpenAI.Summary Résumé du raisonnement. Oui
type enum Type de l’objet. A toujours la valeur reasoning.
Valeurs possibles : reasoning
Oui

OpenAI.OutputItemType

Propriété Valeur
Type ficelle
Valeurs output_message
file_search_call
function_call
web_search_call
computer_call
reasoning
compaction
image_generation_call
code_interpreter_call
local_shell_call
shell_call
shell_call_output
apply_patch_call
apply_patch_call_output
mcp_call
mcp_list_tools
mcp_approval_request
custom_tool_call

OpenAI.OutputItemWebSearchToolCall

Les résultats d’un appel d’un outil de recherche Web. Consultez le guide recherche web pour plus d’informations.

Nom Type Descriptif Obligatoire Par défaut
action OpenAI.WebSearchActionSearch ouOpenAI.WebSearchActionOpenPage ou OpenAI.WebSearchActionFind Objet décrivant l’action spécifique effectuée dans cet appel de recherche Web.
Comprend des détails sur la façon dont le modèle a utilisé le Web (rechercher, open_page, trouver).
Oui
id ficelle L’identifiant unique de l’outil de recherche web appelle. Oui
status enum L’état de l’appel d’outil de recherche web.
Valeurs possibles : in_progress, , searchingcompleted,failed
Oui
type enum Le type de l’outil de recherche web appelé. A toujours la valeur web_search_call.
Valeurs possibles : web_search_call
Oui

OpenAI.OutputMessageContent

Discriminateur pour OpenAI.OutputMessageContent

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
output_text OpenAI.OutputMessageContentOutputTextContent
refusal OpenAI.OutputMessageContentRefusalContent
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.OutputMessageContentType Oui

OpenAI.OutputMessageContentOutputTextContent

Sortie de texte du modèle.

Nom Type Descriptif Obligatoire Par défaut
annotations tableau d’OpenAI.Annotation Annotations de la sortie de texte. Oui
logprobs tableau d’OpenAI.LogProb Non
texte ficelle Le texte généré par le modèle. Oui
type enum Type du texte de sortie. A toujours la valeur output_text.
Valeurs possibles : output_text
Oui

OpenAI.OutputMessageContentRefusalContent

Refus du modèle.

Nom Type Descriptif Obligatoire Par défaut
refusal ficelle Explication du refus du modèle. Oui
type enum Type de refus. A toujours la valeur refusal.
Valeurs possibles : refusal
Oui

OpenAI.OutputMessageContentType

Propriété Valeur
Type ficelle
Valeurs output_text
refusal

OpenAI.OutputTextContent

Sortie de texte du modèle.

Nom Type Descriptif Obligatoire Par défaut
annotations tableau d’OpenAI.Annotation Annotations de la sortie de texte. Oui
logprobs tableau d’OpenAI.LogProb Non
texte ficelle Le texte généré par le modèle. Oui
type enum Type du texte de sortie. A toujours la valeur output_text.
Valeurs possibles : output_text
Oui

OpenAI.ParallelToolCalls

Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil.

Type : booléen

OpenAI.PredictionContent

Contenu de sortie prédite statique, tel que le contenu d’un fichier texte en cours de régénération.

Nom Type Descriptif Obligatoire Par défaut
contenu chaîne ou tableau d’OpenAI.ChatCompletionRequestMessageContentPartText Le contenu qui doit être mis en correspondance lors de la génération d’une réponse de modèle.
Si les jetons générés correspondent à ce contenu, la réponse entière du modèle
peut être retourné beaucoup plus rapidement.
Oui
type enum Le type de contenu prédit que vous souhaitez fournir. Ce type est
actuellement toujours content.
Valeurs possibles : content
Oui

OpenAI.Prompt

Référence à un modèle d’invite et à ses variables. En savoir plus.

Nom Type Descriptif Obligatoire Par défaut
id ficelle Identificateur unique du modèle d’invite à utiliser. Oui
variables OpenAI.ResponsePromptVariables ou null Non
version chaîne ou nulle Non

OpenAI.RankerVersionType

Propriété Valeur
Type ficelle
Valeurs auto
default-2024-11-15

OpenAI.RankingOptions

Nom Type Descriptif Obligatoire Par défaut
hybrid_search OpenAI.HybridSearchOptions Non
└embedding_weight nombre Le poids de l’immersion dans la fusion de rang réciproque. Oui
└text_weight nombre Le poids du texte dans la fusion de rang réciproque. Oui
ranker OpenAI.RankerVersionType Non
seuil de score nombre Seuil de score pour la recherche de fichiers, nombre compris entre 0 et 1. Les nombres plus proches de 1 tenteront de retourner uniquement les résultats les plus pertinents, mais peuvent retourner moins de résultats. Non

OpenAI.RealtimeAudioFormats

Discriminateur pour OpenAI.RealtimeAudioFormats

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
audio/pcm OpenAI.RealtimeAudioFormatsAudioPcm
audio/pcmu OpenAI.RealtimeAudioFormatsAudioPcmu
audio/pcma OpenAI.RealtimeAudioFormatsAudioPcma
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.RealtimeAudioFormatsType Oui

OpenAI.RealtimeAudioFormatsAudioPcm

Nom Type Descriptif Obligatoire Par défaut
taux enum
Valeurs possibles : 24000
Non
type enum
Valeurs possibles : audio/pcm
Oui

OpenAI.RealtimeAudioFormatsAudioPcma

Nom Type Descriptif Obligatoire Par défaut
type enum
Valeurs possibles : audio/pcma
Oui

OpenAI.RealtimeAudioFormatsAudioPcmu

Nom Type Descriptif Obligatoire Par défaut
type enum
Valeurs possibles : audio/pcmu
Oui

OpenAI.RealtimeAudioFormatsType

Propriété Valeur
Type ficelle
Valeurs audio/pcm
audio/pcmu
audio/pcma

OpenAI.RealtimeCallCreateRequest

Nom Type Descriptif Obligatoire Par défaut
Sdp ficelle Offre SDP (WebRTC Session Description Protocol) générée par l’appelant. Oui
session OpenAI.RealtimeSessionCreateRequestGA Configuration de l’objet session en temps réel. Non
Audio └> OpenAI.RealtimeSessionCreateRequestGAAudio Configuration de l’audio d’entrée et de sortie. Non
Inclure └ ; tableau de chaînes Champs supplémentaires à inclure dans les sorties du serveur.
item.input_audio_transcription.logprobs: incluez des logprobs pour la transcription audio d’entrée.
Non
└─ Instructions ficelle Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple« être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité.
Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles lors de l’événement session.created au début de la session.
Non
└ max_output_tokens entier (voir les modèles valides ci-dessous) Nombre maximal de jetons de sortie pour une réponse d’assistant unique,
inclus dans les appels d’outils. Fournir un entier compris entre 1 et 4096 à
limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un
modèle donné. La valeur par défaut est inf.
Non
└─ Modèle ficelle Modèle temps réel utilisé pour cette session. Non
└output_modalities tableau de chaînes L’ensemble de modalités avec laquelle le modèle peut répondre. Il est ["audio"]par défaut , indiquant
que le modèle répond avec l’audio et une transcription. ["text"] peut être utilisé pour faire
le modèle répond uniquement avec du texte. Il n’est pas possible de demander les deux text et audio en même temps.
Non ['audio']
└─ invite OpenAI.Prompt Référence à un modèle d’invite et à ses variables.
En savoir plus.
Non
└─ choix_outil OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceFunction ou OpenAI.ToolChoiceMCP Comment le modèle choisit les outils. Fournir l’un des modes de chaîne ou forcer un élément spécifique
outil function/MCP.
Non auto
└─ Outils tableau d’OpenAI.RealtimeFunctionTool ou OpenAI.MCPTool Outils disponibles pour le modèle. Non
Suivi └> string ou OpenAI.RealtimeSessionCreateRequestGATracing ou null « » Défini sur Null pour désactiver le suivi. Une fois
le suivi est activé pour une session, la configuration ne peut pas être modifiée.
auto crée une trace pour la session avec des valeurs par défaut pour le
nom du flux de travail, ID de groupe et métadonnées.
Non auto
└─ troncature OpenAI.RealtimeTruncation Lorsque le nombre de jetons d’une conversation dépasse la limite du jeton d’entrée du modèle, la conversation est tronquée, ce qui signifie que les messages (à partir du plus ancien) ne sont pas inclus dans le contexte du modèle. Un modèle de contexte de 32 096 avec 4 096 jetons de sortie max ne peut inclure que 28 224 jetons dans le contexte avant la troncation.
Les clients peuvent configurer le comportement de troncation pour tronquer avec une limite de jeton maximale inférieure, ce qui constitue un moyen efficace de contrôler l’utilisation et le coût des jetons.
La troncation réduit le nombre de jetons mis en cache au prochain tour (busting the cache), car les messages sont supprimés du début du contexte. Toutefois, les clients peuvent également configurer la troncation pour conserver les messages jusqu’à une fraction de la taille de contexte maximale, ce qui réduit la nécessité de troncations futures et améliore ainsi le taux de cache.
La troncation peut être désactivée entièrement, ce qui signifie que le serveur ne sera jamais tronqué, mais retournerait plutôt une erreur si la conversation dépasse la limite du jeton d’entrée du modèle.
Non
└─ Type enum Type de session à créer. Toujours realtime pour l’API En temps réel.
Valeurs possibles : realtime
Oui

OpenAI.RealtimeCallReferRequest

Paramètres requis pour transférer un appel SIP vers une nouvelle destination à l’aide de l’API Temps réel.

Nom Type Descriptif Obligatoire Par défaut
target_uri ficelle URI qui doit apparaître dans l’en-tête Refer-To SIP. Prend en charge les valeurs telles que
tel:+14155550123 ou sip:agent\@example.com.
Oui

OpenAI.RealtimeCallRejectRequest

Paramètres utilisés pour refuser un appel SIP entrant géré par l’API En temps réel.

Nom Type Descriptif Obligatoire Par défaut
status_code entier Code de réponse SIP à renvoyer à l’appelant. 603 Valeurs par défaut (Refuser)
lorsqu’il est omis.
Non

OpenAI.RealtimeCreateClientSecretRequest

Créez une session et une clé secrète client pour l’API Realtime. La requête peut spécifier une configuration de session de transcription ou en temps réel. En savoir plus sur l’API Realtime.

Nom Type Descriptif Obligatoire Par défaut
expire_après OpenAI.RealtimeCreateClientSecretRequestExpiresAfter Non
└─ Ancre enum
Valeurs possibles : created_at
Non
└ secondes entier Contraintes : min : 10, max : 7200 Non 600
session OpenAI.RealtimeSessionCreateRequestUnion Non
└─ Type OpenAI.RealtimeSessionCreateRequestUnionType Oui

OpenAI.RealtimeCreateClientSecretRequestExpiresAfter

Nom Type Descriptif Obligatoire Par défaut
anchor enum
Valeurs possibles : created_at
Non
secondes entier Contraintes : min : 10, max : 7200 Non 600

OpenAI.RealtimeCreateClientSecretResponse

Réponse de la création d’une session et d’une clé secrète client pour l’API En temps réel.

Nom Type Descriptif Obligatoire Par défaut
expires_at entier Horodatage d’expiration pour la clé secrète client, en secondes depuis l’époque. Oui
session OpenAI.RealtimeSessionCreateResponseUnion Oui
└─ Type OpenAI.RealtimeSessionCreateResponseUnionType Oui
valeur ficelle Valeur de clé secrète client générée. Oui

OpenAI.RealtimeFunctionTool

Nom Type Descriptif Obligatoire Par défaut
descriptif ficelle Description de la fonction, y compris des conseils sur le moment et la façon dont
pour l’appeler et des conseils sur ce qu’il faut indiquer à l’utilisateur lors de l’appel
(le cas échéant).
Non
nom ficelle Nom de la fonction. Non
paramètres OpenAI.RealtimeFunctionToolParameters Non
type enum Type de l’outil, c’est-à-dire function.
Valeurs possibles : function
Non

OpenAI.RealtimeFunctionToolParameters

Type : objet

OpenAI.RealtimeSessionCreateRequest

Nouvelle configuration de session en temps réel, avec une clé éphémère. La durée de vie par défaut des clés est d’une minute.

Nom Type Descriptif Obligatoire Par défaut
secret du client OpenAI.RealtimeSessionCreateRequestClientSecret Oui
expires_at entier Oui
└─ valeur ficelle Oui
input_audio_format ficelle Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw. Non
input_audio_transcription OpenAI.RealtimeSessionCreateRequestInputAudioTranscription Non
└─ Modèle ficelle Non
instructions ficelle Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple« être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité.
Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles lors de l’événement session.created au début de la session.
Non
max_response_output_tokens entier (voir les modèles valides ci-dessous) Nombre maximal de jetons de sortie pour une réponse d’assistant unique,
inclus dans les appels d’outils. Fournir un entier compris entre 1 et 4096 à
limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un
modèle donné. La valeur par défaut est inf.
Non
modalités tableau de chaînes L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio,
définissez cette valeur sur ["text"].
Non ['text', 'audio']
output_audio_format ficelle Format de l’audio de sortie. Les options sont pcm16, g711_ulaw ou g711_alaw. Non
prompt OpenAI.Prompt Référence à un modèle d’invite et à ses variables.
En savoir plus.
Non
speed nombre Vitesse de la réponse parlée du modèle. 1.0 est la vitesse par défaut. 0.25 est
vitesse minimale. 1,5 est la vitesse maximale. Cette valeur ne peut être modifiée que
entre les tours du modèle, et non pendant qu’une réponse est en cours.
Contraintes : min : 0,25, max : 1,5
Non 1
température nombre Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. La valeur par défaut est 0,8. Non
tool_choice ficelle Comment le modèle choisit les outils. Les options sont auto, , nonerequiredou
spécifiez une fonction.
Non
outils array of OpenAI.RealtimeSessionCreateRequestTools Outils (fonctions) disponibles pour le modèle. Non
tracing chaîne ou objet Options de configuration pour le suivi. Définissez la valeur Null pour désactiver le suivi. Une fois
le suivi est activé pour une session, la configuration ne peut pas être modifiée.
auto crée une trace pour la session avec des valeurs par défaut pour le
nom du flux de travail, ID de groupe et métadonnées.
Non
truncation OpenAI.RealtimeTruncation Lorsque le nombre de jetons d’une conversation dépasse la limite du jeton d’entrée du modèle, la conversation est tronquée, ce qui signifie que les messages (à partir du plus ancien) ne sont pas inclus dans le contexte du modèle. Un modèle de contexte de 32 096 avec 4 096 jetons de sortie max ne peut inclure que 28 224 jetons dans le contexte avant la troncation.
Les clients peuvent configurer le comportement de troncation pour tronquer avec une limite de jeton maximale inférieure, ce qui constitue un moyen efficace de contrôler l’utilisation et le coût des jetons.
La troncation réduit le nombre de jetons mis en cache au prochain tour (busting the cache), car les messages sont supprimés du début du contexte. Toutefois, les clients peuvent également configurer la troncation pour conserver les messages jusqu’à une fraction de la taille de contexte maximale, ce qui réduit la nécessité de troncations futures et améliore ainsi le taux de cache.
La troncation peut être désactivée entièrement, ce qui signifie que le serveur ne sera jamais tronqué, mais retournerait plutôt une erreur si la conversation dépasse la limite du jeton d’entrée du modèle.
Non
turn_detection OpenAI.RealtimeSessionCreateRequestTurnDetection Non
prefix_padding_ms entier Non
└durée_du_silence_ms entier Non
└─ seuil nombre Non
└─ Type ficelle Non
type enum
Valeurs possibles : realtime
Oui
voice OpenAI.VoiceIdsShared Non

OpenAI.RealtimeSessionCreateRequestClientSecret

Nom Type Descriptif Obligatoire Par défaut
expires_at entier Oui
valeur ficelle Oui

OpenAI.RealtimeSessionCreateRequestGA

Configuration de l’objet session en temps réel.

Nom Type Descriptif Obligatoire Par défaut
audio OpenAI.RealtimeSessionCreateRequestGAAudio Non
└─ Entrée OpenAI.RealtimeSessionCreateRequestGAAudioInput Non
└─ Sortie OpenAI.RealtimeSessionCreateRequestGAAudioOutput Non
inclure tableau de chaînes Champs supplémentaires à inclure dans les sorties du serveur.
item.input_audio_transcription.logprobs: incluez des logprobs pour la transcription audio d’entrée.
Non
instructions ficelle Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple« être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité.
Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles lors de l’événement session.created au début de la session.
Non
max_output_tokens entier (voir les modèles valides ci-dessous) Nombre maximal de jetons de sortie pour une réponse d’assistant unique,
inclus dans les appels d’outils. Fournir un entier compris entre 1 et 4096 à
limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un
modèle donné. La valeur par défaut est inf.
Non
modèle ficelle Modèle temps réel utilisé pour cette session. Non
modalités de sortie tableau de chaînes L’ensemble de modalités avec laquelle le modèle peut répondre. Il est ["audio"]par défaut , indiquant
que le modèle répond avec l’audio et une transcription. ["text"] peut être utilisé pour faire
le modèle répond uniquement avec du texte. Il n’est pas possible de demander les deux text et audio en même temps.
Non ['audio']
prompt OpenAI.Prompt Référence à un modèle d’invite et à ses variables.
En savoir plus.
Non
tool_choice OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceFunction ou OpenAI.ToolChoiceMCP Comment le modèle choisit les outils. Fournir l’un des modes de chaîne ou forcer un élément spécifique
outil function/MCP.
Non
outils tableau d’OpenAI.RealtimeFunctionTool ou OpenAI.MCPTool Outils disponibles pour le modèle. Non
tracing string ou OpenAI.RealtimeSessionCreateRequestGATracing ou null « » Défini sur Null pour désactiver le suivi. Une fois
le suivi est activé pour une session, la configuration ne peut pas être modifiée.
auto crée une trace pour la session avec des valeurs par défaut pour le
nom du flux de travail, ID de groupe et métadonnées.
Non
truncation OpenAI.RealtimeTruncation Lorsque le nombre de jetons d’une conversation dépasse la limite du jeton d’entrée du modèle, la conversation est tronquée, ce qui signifie que les messages (à partir du plus ancien) ne sont pas inclus dans le contexte du modèle. Un modèle de contexte de 32 096 avec 4 096 jetons de sortie max ne peut inclure que 28 224 jetons dans le contexte avant la troncation.
Les clients peuvent configurer le comportement de troncation pour tronquer avec une limite de jeton maximale inférieure, ce qui constitue un moyen efficace de contrôler l’utilisation et le coût des jetons.
La troncation réduit le nombre de jetons mis en cache au prochain tour (busting the cache), car les messages sont supprimés du début du contexte. Toutefois, les clients peuvent également configurer la troncation pour conserver les messages jusqu’à une fraction de la taille de contexte maximale, ce qui réduit la nécessité de troncations futures et améliore ainsi le taux de cache.
La troncation peut être désactivée entièrement, ce qui signifie que le serveur ne sera jamais tronqué, mais retournerait plutôt une erreur si la conversation dépasse la limite du jeton d’entrée du modèle.
Non
type enum Type de session à créer. Toujours realtime pour l’API En temps réel.
Valeurs possibles : realtime
Oui

OpenAI.RealtimeSessionCreateRequestGAAudio

Nom Type Descriptif Obligatoire Par défaut
entrée OpenAI.RealtimeSessionCreateRequestGAAudioInput Non
output OpenAI.RealtimeSessionCreateRequestGAAudioOutput Non

OpenAI.RealtimeSessionCreateRequestGAAudioInput

Nom Type Descriptif Obligatoire Par défaut
format OpenAI.RealtimeAudioFormats Non
noise_reduction OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction Non
transcription OpenAI.AudioTranscription Non
turn_detection OpenAI.RealtimeTurnDetection Non

OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction

Nom Type Descriptif Obligatoire Par défaut
type OpenAI.NoiseReductionType Type de réduction du bruit. near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence. Non

OpenAI.RealtimeSessionCreateRequestGAAudioOutput

Nom Type Descriptif Obligatoire Par défaut
format OpenAI.RealtimeAudioFormats Non
speed nombre Contraintes : min : 0,25, max : 1,5 Non 1
voice OpenAI.VoiceIdsShared Non

OpenAI.RealtimeSessionCreateRequestGATracing

Nom Type Descriptif Obligatoire Par défaut
group_id ficelle Non
metadata objet Non
workflow_name ficelle Non

OpenAI.RealtimeSessionCreateRequestInputAudioTranscription

Nom Type Descriptif Obligatoire Par défaut
modèle ficelle Non

OpenAI.RealtimeSessionCreateRequestTools

Nom Type Descriptif Obligatoire Par défaut
descriptif ficelle Non
nom ficelle Non
paramètres OpenAI.RealtimeSessionCreateRequestToolsParameters Non
type enum
Valeurs possibles : function
Non

OpenAI.RealtimeSessionCreateRequestToolsParameters

Type : objet

OpenAI.RealtimeSessionCreateRequestTurnDetection

Nom Type Descriptif Obligatoire Par défaut
prefix_padding_ms entier Non
silence_duration_ms entier Non
threshold nombre Non
type ficelle Non

OpenAI.RealtimeSessionCreateRequestUnion

Discriminateur pour OpenAI.RealtimeSessionCreateRequestUnion

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
realtime OpenAI.RealtimeSessionCreateRequest
transcription OpenAI.RealtimeTranscriptionSessionCreateRequest
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.RealtimeSessionCreateRequestUnionType Oui

OpenAI.RealtimeSessionCreateRequestUnionType

Propriété Valeur
Type ficelle
Valeurs realtime
transcription

OpenAI.RealtimeSessionCreateResponse

Objet de configuration de session en temps réel.

Nom Type Descriptif Obligatoire Par défaut
audio OpenAI.RealtimeSessionCreateResponseAudio Non
└─ Entrée OpenAI.RealtimeSessionCreateResponseAudioInput Non
└─ Sortie OpenAI.RealtimeSessionCreateResponseAudioOutput Non
expires_at entier Horodatage d’expiration pour la session, en secondes depuis l’époque. Non
id ficelle Identificateur unique de la session qui ressemble sess_1234567890abcdefà . Non
inclure tableau de chaînes Champs supplémentaires à inclure dans les sorties du serveur.
- item.input_audio_transcription.logprobs: incluez des logprobs pour la transcription audio d’entrée.
Non
instructions ficelle Les instructions système par défaut (c’est-à-dire le message système) ajoutées au modèle
Appels. Ce champ permet au client de guider le modèle sur le modèle souhaité
Réponses. Le modèle peut être indiqué sur le contenu et le format de réponse,
(par exemple « être extrêmement succinct », « agir convivial », « voici des exemples de bien
réponses ») et sur le comportement audio (par exemple « parler rapidement », « injecter l’émotion »
dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties
à suivre par le modèle, mais ils fournissent des conseils au modèle sur le modèle
comportement souhaité.
Notez que le serveur définit les instructions par défaut qui seront utilisées si cela
le champ n’est pas défini et est visible dans l’événement à l’adresse session.created
début de la session.
Non
max_output_tokens entier (voir les modèles valides ci-dessous) Nombre maximal de jetons de sortie pour une réponse d’assistant unique,
inclus dans les appels d’outils. Fournir un entier compris entre 1 et 4096 à
limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un
modèle donné. La valeur par défaut est inf.
Non
modèle ficelle Modèle temps réel utilisé pour cette session. Non
objet ficelle Type d’objet. A toujours la valeur realtime.session. Non
modalités de sortie tableau de chaînes L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio,
définissez cette valeur sur ["text"].
Non
tool_choice ficelle Comment le modèle choisit les outils. Les options sont auto, , nonerequiredou
spécifiez une fonction.
Non
outils tableau d’OpenAI.RealtimeFunctionTool Outils (fonctions) disponibles pour le modèle. Non
tracing chaîne ou objet Options de configuration pour le suivi. Définissez la valeur Null pour désactiver le suivi. Une fois
le suivi est activé pour une session, la configuration ne peut pas être modifiée.
auto crée une trace pour la session avec des valeurs par défaut pour le
nom du flux de travail, ID de groupe et métadonnées.
Non
turn_detection OpenAI.RealtimeSessionCreateResponseTurnDetection Non
prefix_padding_ms entier Non
└durée_du_silence_ms entier Non
└─ seuil nombre Non
└─ Type ficelle Non
type enum
Valeurs possibles : realtime
Oui

OpenAI.RealtimeSessionCreateResponseAudio

Nom Type Descriptif Obligatoire Par défaut
entrée OpenAI.RealtimeSessionCreateResponseAudioInput Non
output OpenAI.RealtimeSessionCreateResponseAudioOutput Non

OpenAI.RealtimeSessionCreateResponseAudioInput

Nom Type Descriptif Obligatoire Par défaut
format OpenAI.RealtimeAudioFormats Non
noise_reduction OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction Non
transcription OpenAI.AudioTranscription Non
turn_detection OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection Non

OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction

Nom Type Descriptif Obligatoire Par défaut
type OpenAI.NoiseReductionType Type de réduction du bruit. near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence. Non

OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection

Nom Type Descriptif Obligatoire Par défaut
prefix_padding_ms entier Non
silence_duration_ms entier Non
threshold nombre Non
type ficelle Non

OpenAI.RealtimeSessionCreateResponseAudioOutput

Nom Type Descriptif Obligatoire Par défaut
format OpenAI.RealtimeAudioFormats Non
speed nombre Non
voice OpenAI.VoiceIdsShared Non

OpenAI.RealtimeSessionCreateResponseTurnDetection

Nom Type Descriptif Obligatoire Par défaut
prefix_padding_ms entier Non
silence_duration_ms entier Non
threshold nombre Non
type ficelle Non

OpenAI.RealtimeSessionCreateResponseUnion

Discriminateur pour OpenAI.RealtimeSessionCreateResponseUnion

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
realtime OpenAI.RealtimeSessionCreateResponse
transcription OpenAI.RealtimeTranscriptionSessionCreateResponse
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.RealtimeSessionCreateResponseUnionType Oui

OpenAI.RealtimeSessionCreateResponseUnionType

Propriété Valeur
Type ficelle
Valeurs realtime
transcription

OpenAI.RealtimeTranscriptionSessionCreateRequest

Configuration de l’objet de session de transcription en temps réel.

Nom Type Descriptif Obligatoire Par défaut
inclure tableau de chaînes Ensemble d’éléments à inclure dans la transcription. Les éléments disponibles actuels sont les suivants :
item.input_audio_transcription.logprobs
Non
input_audio_format enum Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw.
Pour pcm16, l’audio d’entrée doit être 16 bits PCM à un taux d’échantillonnage de 24 kHz,
un canal unique (mono) et un ordre d’octets little-endian.
Valeurs possibles : pcm16, , g711_ulawg711_alaw
Non
input_audio_noise_reduction OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction Non
└─ Type OpenAI.NoiseReductionType Type de réduction du bruit. near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence. Non
input_audio_transcription OpenAI.AudioTranscription Non
└─ Langue ficelle La langue de l’audio d’entrée. Fourniture de la langue d’entrée dans
Format ISO-639-1 (par exemple en)
améliore la précision et la latence.
Non
└─ Modèle ficelle Modèle à utiliser pour la transcription. Les options actuelles sont whisper-1, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeet gpt-4o-transcribe-diarize. Utilisez gpt-4o-transcribe-diarize quand vous avez besoin d’une diarisation avec des étiquettes d’orateur. Non
└─ invite ficelle Texte facultatif pour guider le style du modèle ou continuer un audio précédent
Segment.
Pour whisper-1, l’invite est une liste de mots clés.
Pour gpt-4o-transcribe les modèles (à l’exclusion gpt-4o-transcribe-diarize), l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ».
Non
turn_detection OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection Non
prefix_padding_ms entier Non
└durée_du_silence_ms entier Non
└─ seuil nombre Non
└─ Type enum
Valeurs possibles : server_vad
Non
type enum
Valeurs possibles : transcription
Oui

OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction

Nom Type Descriptif Obligatoire Par défaut
type OpenAI.NoiseReductionType Type de réduction du bruit. near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence. Non

OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection

Nom Type Descriptif Obligatoire Par défaut
prefix_padding_ms entier Non
silence_duration_ms entier Non
threshold nombre Non
type enum
Valeurs possibles : server_vad
Non

OpenAI.RealtimeTranscriptionSessionCreateResponse

Nouvelle configuration de session de transcription en temps réel. Lorsqu’une session est créée sur le serveur via l’API REST, l’objet de session contient également une clé éphémère. La durée de vie par défaut pour les clés est de 10 minutes. Cette propriété n’est pas présente lorsqu’une session est mise à jour via l’API WebSocket.

Nom Type Descriptif Obligatoire Par défaut
secret du client OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret Oui
expires_at entier Oui
└─ valeur ficelle Oui
input_audio_format ficelle Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw. Non
input_audio_transcription OpenAI.AudioTranscription Non
└─ Langue ficelle La langue de l’audio d’entrée. Fourniture de la langue d’entrée dans
Format ISO-639-1 (par exemple en)
améliore la précision et la latence.
Non
└─ Modèle ficelle Modèle à utiliser pour la transcription. Les options actuelles sont whisper-1, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeet gpt-4o-transcribe-diarize. Utilisez gpt-4o-transcribe-diarize quand vous avez besoin d’une diarisation avec des étiquettes d’orateur. Non
└─ invite ficelle Texte facultatif pour guider le style du modèle ou continuer un audio précédent
Segment.
Pour whisper-1, l’invite est une liste de mots clés.
Pour gpt-4o-transcribe les modèles (à l’exclusion gpt-4o-transcribe-diarize), l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ».
Non
modalités tableau de chaînes L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio,
définissez cette valeur sur ["text"].
Non
turn_detection OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection Non
prefix_padding_ms entier Non
└durée_du_silence_ms entier Non
└─ seuil nombre Non
└─ Type ficelle Non
type enum
Valeurs possibles : transcription
Oui

OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret

Nom Type Descriptif Obligatoire Par défaut
expires_at entier Oui
valeur ficelle Oui

OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection

Nom Type Descriptif Obligatoire Par défaut
prefix_padding_ms entier Non
silence_duration_ms entier Non
threshold nombre Non
type ficelle Non

OpenAI.RealtimeTruncation

Lorsque le nombre de jetons d’une conversation dépasse la limite du jeton d’entrée du modèle, la conversation est tronquée, ce qui signifie que les messages (à partir du plus ancien) ne sont pas inclus dans le contexte du modèle. Un modèle de contexte de 32 096 avec 4 096 jetons de sortie max ne peut inclure que 28 224 jetons dans le contexte avant la troncation. Les clients peuvent configurer le comportement de troncation pour tronquer avec une limite de jeton maximale inférieure, ce qui constitue un moyen efficace de contrôler l’utilisation et le coût des jetons. La troncation réduit le nombre de jetons mis en cache au prochain tour (busting the cache), car les messages sont supprimés du début du contexte. Toutefois, les clients peuvent également configurer la troncation pour conserver les messages jusqu’à une fraction de la taille de contexte maximale, ce qui réduit la nécessité de troncations futures et améliore ainsi le taux de cache. La troncation peut être désactivée entièrement, ce qui signifie que le serveur ne sera jamais tronqué, mais retournerait plutôt une erreur si la conversation dépasse la limite du jeton d’entrée du modèle.

Propriété Valeur
Type ficelle
Valeurs auto
disabled

OpenAI.RealtimeTurnDetection

Discriminateur pour OpenAI.RealtimeTurnDetection

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.RealtimeTurnDetectionType Oui

OpenAI.RealtimeTurnDetectionType

Type : string

OpenAI.Reasoning

Uniquement les modèles GPT-5 et O-Series Options de configuration pour les modèles de raisonnement.

Nom Type Descriptif Obligatoire Par défaut
effort OpenAI.ReasoningEffort Limite l’effort sur le raisonnement pour
les modèles de raisonnement.
Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduire
l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés
le raisonnement dans une réponse.
- gpt-5.1 nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.
- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.
- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.
- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max.
Non
generate_summary chaîne ou nulle Non
summary chaîne ou nulle Non

OpenAI.ReasoningEffort

Limite l’effort sur le raisonnement des modèles de raisonnement. Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et l’utilisation d’un nombre inférieur de jetons sur le raisonnement dans une réponse.

  • gpt-5.1 par défaut , nonequi n’exécute pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.
  • Tous les modèles précédents gpt-5.1 par défaut utilisent medium l’effort de raisonnement, et ne supportent nonepas .
  • Le gpt-5-pro modèle utilise par défaut (et ne supporte que) high l’effort de raisonnement.
  • xhigh est supporté pour tous les modèles après gpt-5.1-codex-max.
Propriété Valeur
Type ficelle
Valeurs none
minimal
low
medium
high
xhigh

OpenAI.ReasoningTextContent

Texte de raisonnement du modèle.

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Le texte de raisonnement du modèle. Oui
type enum Le type de texte de raisonnement. A toujours la valeur reasoning_text.
Valeurs possibles : reasoning_text
Oui

OpenAI.RefusalContent

Refus du modèle.

Nom Type Descriptif Obligatoire Par défaut
refusal ficelle Explication du refus du modèle. Oui
type enum Type de refus. A toujours la valeur refusal.
Valeurs possibles : refusal
Oui

OpenAI.Response

Nom Type Descriptif Obligatoire Par défaut
background booléen ou null Non
terminé_à chaîne ou nulle Non
content_filters tableau d’AzureContentFilterForResponsesAPI Le filtre de contenu résulte de RAI. Oui
conversation OpenAI.ConversationReference ou null Non
date_de_création entier Horodatage Unix (en secondes) de la création de cette réponse. Oui
erreur OpenAI.ResponseError ou null Oui
id ficelle Identificateur unique pour cette réponse. Oui
incomplete_details OpenAI.ResponseIncompleteDetails ou null Oui
instructions chaîne ou tableau d’OpenAI.InputItem ou null Oui
max_output_tokens entier ou null Non
max_tool_calls entier ou null Non
metadata OpenAI.Metadata ou null Non
modèle ficelle ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAI
offre un large éventail de modèles avec différentes fonctionnalités, performances
caractéristiques et points de prix. Reportez-vous au guide du modèle
pour parcourir et comparer les modèles disponibles.
Non
objet enum Type d’objet de cette ressource - toujours défini sur response.
Valeurs possibles : response
Oui
output tableau d’OpenAI.OutputItem Tableau d’éléments de contenu générés par le modèle.
- La longueur et l’ordre des éléments dans le output tableau dépendent
sur la réponse du modèle.
- Plutôt que d’accéder au premier élément du tableau output et
en supposant qu’il s’agit d’un assistant message avec le contenu généré par
du modèle, vous pouvez envisager d’utiliser la propriété output_text
pris en charge dans les kits SDK.
Oui
output_text chaîne ou nulle Non
parallel_tool_calls booléen Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. Oui Vrai
previous_response_id chaîne ou nulle Non
prompt OpenAI.Prompt Référence à un modèle d’invite et à ses variables.
En savoir plus.
Non
prompt_cache_key ficelle Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ. En savoir plus. Non
prompt_cache_retention chaîne ou nulle Non
reasoning OpenAI.Reasoning ou Null Non
safety_identifier ficelle Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI.
Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus.
Non
status enum État de la génération de réponse. Valeurs possibles : completed, failed,
in_progress, cancelled, queued ou incomplete.
Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete
Non
température nombre ou null Non
texte OpenAI.ResponseTextParam Options de configuration d’une réponse texte à partir du modèle. Peut être du texte
brut ou des données JSON structurées. Pour en savoir plus:
- Entrées et sorties texte
- Sorties structurées
Non
tool_choice OpenAI.ToolChoiceParam Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération
une réponse. Voir le tools paramètre pour voir comment spécifier les outils
le modèle peut effectuer un appel.
Non
outils OpenAI.ToolsArray Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous
peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.
Nous prenons en charge les catégories d’outils suivantes :
- Outils intégrés : outils fournis par OpenAI qui étendent le
Les capacités du modèle, comme recherche web
ou fichier c0. En savoir plus sur
outils intégrés.
- Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés
ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur
Outils MCP.
- Appels de fonction (outils personnalisés) : fonctions définies par vous,
activation du modèle pour appeler votre propre code avec des arguments fortement typés
et sorties. En savoir plus sur
fonction appelant. Vous pouvez également utiliser
outils personnalisés pour appeler votre propre code.
Non
top_logprobs entier ou null Non
top_p nombre ou null Non
truncation chaîne ou nulle Non
usage OpenAI.ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie,
répartition des jetons de sortie et du nombre total de jetons utilisés.
Non
utilisateur chaîne (déconseillée) Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.
Identificateur stable pour vos utilisateurs finaux.
Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus.
Non

OpenAI.ResponseAudioDeltaEvent

Émis lorsqu’il existe une réponse audio partielle.

Nom Type Descriptif Obligatoire Par défaut
delta ficelle Segment d’octets audio de réponse encodés en Base64. Oui
sequence_number entier Numéro de séquence pour ce segment de la réponse de flux. Oui
type enum le type de l'événement ; A toujours la valeur response.audio.delta.
Valeurs possibles : response.audio.delta
Oui

OpenAI.ResponseAudioTranscriptDeltaEvent

Émis lorsqu’il existe une transcription partielle de l’audio.

Nom Type Descriptif Obligatoire Par défaut
delta ficelle Transcription partielle de la réponse audio. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; A toujours la valeur response.audio.transcript.delta.
Valeurs possibles : response.audio.transcript.delta
Oui

OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent

Émis lorsqu’un extrait de code partiel est diffusé en continu par l’interpréteur de code.

Nom Type Descriptif Obligatoire Par défaut
delta ficelle Extrait de code partiel diffusé par l’interpréteur de code. Oui
item_id ficelle Identificateur unique de l’élément d’appel de l’outil interpréteur de code. Oui
output_index entier Index de l’élément de sortie dans la réponse pour laquelle le code est en cours de diffusion en continu. Oui
sequence_number entier Numéro de séquence de cet événement, utilisé pour commander les événements de diffusion en continu. Oui
type enum le type de l'événement ; A toujours la valeur response.code_interpreter_call_code.delta.
Valeurs possibles : response.code_interpreter_call_code.delta
Oui

OpenAI.ResponseCodeInterpreterCallInProgressEvent

Émis lorsqu’un appel d’interpréteur de code est en cours.

Nom Type Descriptif Obligatoire Par défaut
item_id ficelle Identificateur unique de l’élément d’appel de l’outil interpréteur de code. Oui
output_index entier Index de l’élément de sortie dans la réponse pour laquelle l’appel de l’interpréteur de code est en cours. Oui
sequence_number entier Numéro de séquence de cet événement, utilisé pour commander les événements de diffusion en continu. Oui
type enum le type de l'événement ; A toujours la valeur response.code_interpreter_call.in_progress.
Valeurs possibles : response.code_interpreter_call.in_progress
Oui

OpenAI.ResponseCodeInterpreterCallInterpretingEvent

Émis lorsque l’interpréteur de code interprète activement l’extrait de code.

Nom Type Descriptif Obligatoire Par défaut
item_id ficelle Identificateur unique de l’élément d’appel de l’outil interpréteur de code. Oui
output_index entier Index de l’élément de sortie dans la réponse pour laquelle l’interpréteur de code interprète le code. Oui
sequence_number entier Numéro de séquence de cet événement, utilisé pour commander les événements de diffusion en continu. Oui
type enum le type de l'événement ; A toujours la valeur response.code_interpreter_call.interpreting.
Valeurs possibles : response.code_interpreter_call.interpreting
Oui

OpenAI.ResponseContentPartAddedEvent

Émis lorsqu’un nouveau composant de contenu est ajouté.

Nom Type Descriptif Obligatoire Par défaut
content_index entier Index de la partie de contenu qui a été ajoutée. Oui
item_id ficelle ID de l’élément de sortie auquel la partie de contenu a été ajoutée. Oui
output_index entier Index de l’élément de sortie auquel la partie de contenu a été ajoutée. Oui
part OpenAI.OutputContent Oui
└─ Type OpenAI.OutputContentType Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; A toujours la valeur response.content_part.added.
Valeurs possibles : response.content_part.added
Oui

OpenAI.ResponseCreatedEvent

Événement émis lors de la création d’une réponse.

Nom Type Descriptif Obligatoire Par défaut
response OpenAI.Response Oui
└─ arrière-plan booléen ou null Non
└completed_at chaîne ou nulle Non
└content_filters tableau d’AzureContentFilterForResponsesAPI Le filtre de contenu résulte de RAI. Oui
Conversation └> OpenAI.ConversationReference ou null Non
└created_at entier Horodatage Unix (en secondes) de la création de cette réponse. Oui
Erreur └ ; OpenAI.ResponseError ou null Oui
└─ identifiant ficelle Identificateur unique pour cette réponse. Oui
└─ détails_incomplets OpenAI.ResponseIncompleteDetails ou null Oui
└─ Instructions chaîne ou tableau d’OpenAI.InputItem ou null Oui
└ max_output_tokens entier ou null Non
└max_tool_calls entier ou null Non
└─ Métadonnées OpenAI.Metadata ou null Non
└─ Modèle ficelle ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAI
offre un large éventail de modèles avec différentes fonctionnalités, performances
caractéristiques et points de prix. Reportez-vous au guide du modèle
pour parcourir et comparer les modèles disponibles.
Non
└─ Objet enum Type d’objet de cette ressource - toujours défini sur response.
Valeurs possibles : response
Oui
└─ Sortie tableau d’OpenAI.OutputItem Tableau d’éléments de contenu générés par le modèle.
- La longueur et l’ordre des éléments dans le output tableau dépendent
sur la réponse du modèle.
- Plutôt que d’accéder au premier élément du tableau output et
en supposant qu’il s’agit d’un assistant message avec le contenu généré par
du modèle, vous pouvez envisager d’utiliser la propriété output_text
pris en charge dans les kits SDK.
Oui
└─output_text chaîne ou nulle Non
└─ appels_outils_parallèles booléen Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. Oui Vrai
└identifiant_de_réponse_précédent (`previous_response_id`) chaîne ou nulle Non
└─ invite OpenAI.Prompt Référence à un modèle d’invite et à ses variables.
En savoir plus.
Non
└prompt_cache_key ficelle Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ. En savoir plus. Non
└prompt_cache_retention chaîne ou nulle Non
└─ Raisonnement OpenAI.Reasoning ou Null Non
└safety_identifier ficelle Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI.
Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus.
Non
└─ État enum État de la génération de réponse. Valeurs possibles : completed, failed,
in_progress, cancelled, queued ou incomplete.
Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete
Non
└─ Température nombre ou null Non 1
└─ texte OpenAI.ResponseTextParam Options de configuration d’une réponse texte à partir du modèle. Peut être du texte
brut ou des données JSON structurées. Pour en savoir plus:
- Entrées et sorties texte
- Sorties structurées
Non
└─ choix_outil OpenAI.ToolChoiceParam Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération
une réponse. Voir le tools paramètre pour voir comment spécifier les outils
le modèle peut effectuer un appel.
Non
└─ Outils OpenAI.ToolsArray Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous
peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.
Nous prenons en charge les catégories d’outils suivantes :
- Outils intégrés : outils fournis par OpenAI qui étendent le
Les capacités du modèle, comme recherche web
ou fichier c0. En savoir plus sur
outils intégrés.
- Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés
ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur
Outils MCP.
- Appels de fonction (outils personnalisés) : fonctions définies par vous,
activation du modèle pour appeler votre propre code avec des arguments fortement typés
et sorties. En savoir plus sur
fonction appelant. Vous pouvez également utiliser
outils personnalisés pour appeler votre propre code.
Non
├ top_logprobs entier ou null Non
└─ top_p nombre ou null Non 1
└─ troncature chaîne ou nulle Non handicapé
└─ utilisation OpenAI.ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie,
répartition des jetons de sortie et du nombre total de jetons utilisés.
Non
└─ Utilisateur chaîne (déconseillée) Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.
Identificateur stable pour vos utilisateurs finaux.
Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus.
Non
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; A toujours la valeur response.created.
Valeurs possibles : response.created
Oui

OpenAI.ResponseCustomToolCallInputDeltaEvent

Événement représentant un delta (mise à jour partielle) à l’entrée d’un appel d’outil personnalisé.

Nom Type Descriptif Obligatoire Par défaut
delta ficelle Données d’entrée incrémentielles (delta) pour l’appel d’outil personnalisé. Oui
item_id ficelle Identificateur unique de l’élément d’API associé à cet événement. Oui
output_index entier L’index de la sortie auquel s’applique ce delta. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum Identificateur de type d’événement.
Valeurs possibles : response.custom_tool_call_input.delta
Oui

OpenAI.ResponseError

Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse.

Nom Type Descriptif Obligatoire Par défaut
code OpenAI.ResponseErrorCode Code d’erreur de la réponse. Oui
message ficelle Une description de l’erreur à l’intention des utilisateurs. Oui

OpenAI.ResponseErrorCode

Code d’erreur de la réponse.

Propriété Valeur
Type ficelle
Valeurs server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

OpenAI.ResponseErrorEvent

Émis lorsqu’une erreur se produit.

Nom Type Descriptif Obligatoire Par défaut
code chaîne ou nulle Oui
message ficelle Message d’erreur. Oui
param chaîne ou nulle Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; A toujours la valeur error.
Valeurs possibles : error
Oui

OpenAI.ResponseFailedEvent

Événement émis en cas d’échec d’une réponse.

Nom Type Descriptif Obligatoire Par défaut
response OpenAI.Response Oui
└─ arrière-plan booléen ou null Non
└completed_at chaîne ou nulle Non
└content_filters tableau d’AzureContentFilterForResponsesAPI Le filtre de contenu résulte de RAI. Oui
Conversation └> OpenAI.ConversationReference ou null Non
└created_at entier Horodatage Unix (en secondes) de la création de cette réponse. Oui
Erreur └ ; OpenAI.ResponseError ou null Oui
└─ identifiant ficelle Identificateur unique pour cette réponse. Oui
└─ détails_incomplets OpenAI.ResponseIncompleteDetails ou null Oui
└─ Instructions chaîne ou tableau d’OpenAI.InputItem ou null Oui
└ max_output_tokens entier ou null Non
└max_tool_calls entier ou null Non
└─ Métadonnées OpenAI.Metadata ou null Non
└─ Modèle ficelle ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAI
offre un large éventail de modèles avec différentes fonctionnalités, performances
caractéristiques et points de prix. Reportez-vous au guide du modèle
pour parcourir et comparer les modèles disponibles.
Non
└─ Objet enum Type d’objet de cette ressource - toujours défini sur response.
Valeurs possibles : response
Oui
└─ Sortie tableau d’OpenAI.OutputItem Tableau d’éléments de contenu générés par le modèle.
- La longueur et l’ordre des éléments dans le output tableau dépendent
sur la réponse du modèle.
- Plutôt que d’accéder au premier élément du tableau output et
en supposant qu’il s’agit d’un assistant message avec le contenu généré par
du modèle, vous pouvez envisager d’utiliser la propriété output_text
pris en charge dans les kits SDK.
Oui
└─output_text chaîne ou nulle Non
└─ appels_outils_parallèles booléen Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. Oui Vrai
└identifiant_de_réponse_précédent (`previous_response_id`) chaîne ou nulle Non
└─ invite OpenAI.Prompt Référence à un modèle d’invite et à ses variables.
En savoir plus.
Non
└prompt_cache_key ficelle Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ. En savoir plus. Non
└prompt_cache_retention chaîne ou nulle Non
└─ Raisonnement OpenAI.Reasoning ou Null Non
└safety_identifier ficelle Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI.
Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus.
Non
└─ État enum État de la génération de réponse. Valeurs possibles : completed, failed,
in_progress, cancelled, queued ou incomplete.
Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete
Non
└─ Température nombre ou null Non 1
└─ texte OpenAI.ResponseTextParam Options de configuration d’une réponse texte à partir du modèle. Peut être du texte
brut ou des données JSON structurées. Pour en savoir plus:
- Entrées et sorties texte
- Sorties structurées
Non
└─ choix_outil OpenAI.ToolChoiceParam Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération
une réponse. Voir le tools paramètre pour voir comment spécifier les outils
le modèle peut effectuer un appel.
Non
└─ Outils OpenAI.ToolsArray Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous
peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.
Nous prenons en charge les catégories d’outils suivantes :
- Outils intégrés : outils fournis par OpenAI qui étendent le
Les capacités du modèle, comme recherche web
ou fichier c0. En savoir plus sur
outils intégrés.
- Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés
ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur
Outils MCP.
- Appels de fonction (outils personnalisés) : fonctions définies par vous,
activation du modèle pour appeler votre propre code avec des arguments fortement typés
et sorties. En savoir plus sur
fonction appelant. Vous pouvez également utiliser
outils personnalisés pour appeler votre propre code.
Non
├ top_logprobs entier ou null Non
└─ top_p nombre ou null Non 1
└─ troncature chaîne ou nulle Non handicapé
└─ utilisation OpenAI.ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie,
répartition des jetons de sortie et du nombre total de jetons utilisés.
Non
└─ Utilisateur chaîne (déconseillée) Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.
Identificateur stable pour vos utilisateurs finaux.
Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus.
Non
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; A toujours la valeur response.failed.
Valeurs possibles : response.failed
Oui

OpenAI.ResponseFileSearchCallInProgressEvent

Émis lorsqu’un appel de recherche de fichiers est lancé.

Nom Type Descriptif Obligatoire Par défaut
item_id ficelle ID de l’élément de sortie initié par l’appel de recherche de fichier. Oui
output_index entier L'index de l'élément de sortie auquel l'appel de recherche de fichier est associé. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; A toujours la valeur response.file_search_call.in_progress.
Valeurs possibles : response.file_search_call.in_progress
Oui

OpenAI.ResponseFileSearchCallSearchingEvent

Émis lorsqu'une recherche de fichier est en cours.

Nom Type Descriptif Obligatoire Par défaut
item_id ficelle ID de l’élément de sortie initié par l’appel de recherche de fichier. Oui
output_index entier Index de l’élément de sortie recherché lors de l’appel de recherche de fichier. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; A toujours la valeur response.file_search_call.searching.
Valeurs possibles : response.file_search_call.searching
Oui

OpenAI.ResponseFormatJsonObject

Format de réponse d’objet JSON. Méthode plus ancienne de génération de réponses JSON. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. Notez que le modèle ne génère pas de JSON sans message système ou utilisateur lui demandant de le faire.

Nom Type Descriptif Obligatoire Par défaut
type enum Type de format de réponse défini. A toujours la valeur json_object.
Valeurs possibles : json_object
Oui

OpenAI.ResponseFormatJsonSchema

Format de réponse de schéma JSON. Utilisé pour générer des réponses JSON structurées. En savoir plus sur les sorties structurées.

Nom Type Descriptif Obligatoire Par défaut
json_schema OpenAI.ResponseFormatJsonSchemaJsonSchema Oui
└─ Description ficelle Non
└─ Nom ficelle Oui
└─ Schéma OpenAI.ResponseFormatJsonSchemaSchema Schéma du format de réponse, décrit en tant qu’objet de schéma JSON.
Découvrez comment créer des schémas JSON ici.
Non
└' strict booléen ou null Non
type enum Type de format de réponse défini. A toujours la valeur json_schema.
Valeurs possibles : json_schema
Oui

OpenAI.ResponseFormatJsonSchemaJsonSchema

Nom Type Descriptif Obligatoire Par défaut
descriptif ficelle Non
nom ficelle Oui
schéma OpenAI.ResponseFormatJsonSchemaSchema Schéma du format de réponse, décrit en tant qu’objet de schéma JSON.
Découvrez comment créer des schémas JSON ici.
Non
strict booléen ou null Non

OpenAI.ResponseFormatJsonSchemaSchema

Schéma du format de réponse, décrit en tant qu’objet de schéma JSON. Découvrez comment créer des schémas JSON ici.

Type : objet

OpenAI.ResponseFormatText

Format de réponse par défaut. Utilisé pour générer des réponses de texte.

Nom Type Descriptif Obligatoire Par défaut
type enum Type de format de réponse défini. A toujours la valeur text.
Valeurs possibles : text
Oui

OpenAI.ResponseFunctionCallArgumentsDeltaEvent

Émis lorsqu’il existe un delta d’arguments d’appel de fonction partiel.

Nom Type Descriptif Obligatoire Par défaut
delta ficelle Delta des arguments d’appel de fonction ajoutés. Oui
item_id ficelle ID de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté. Oui
output_index entier Index de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; A toujours la valeur response.function_call_arguments.delta.
Valeurs possibles : response.function_call_arguments.delta
Oui

OpenAI.ResponseImageGenCallGeneratingEvent

Émis lorsqu’un appel d’outil de génération d’images génère activement une image (état intermédiaire).

Nom Type Descriptif Obligatoire Par défaut
item_id ficelle Identificateur unique de l’élément de génération d’image en cours de traitement. Oui
output_index entier L’index de l’élément de sortie dans le groupe de sortie de la réponse. Oui
sequence_number entier Numéro de séquence de l’élément de génération d’image en cours de traitement. Oui
type enum le type de l'événement ; Toujours « response.image_generation_call.generating ».
Valeurs possibles : response.image_generation_call.generating
Oui

OpenAI.ResponseImageGenCallInProgressEvent

Émis lorsqu’un appel d’outil de génération d’images est en cours.

Nom Type Descriptif Obligatoire Par défaut
item_id ficelle Identificateur unique de l’élément de génération d’image en cours de traitement. Oui
output_index entier L’index de l’élément de sortie dans le groupe de sortie de la réponse. Oui
sequence_number entier Numéro de séquence de l’élément de génération d’image en cours de traitement. Oui
type enum le type de l'événement ; Toujours « response.image_generation_call.in_progress ».
Valeurs possibles : response.image_generation_call.in_progress
Oui

OpenAI.ResponseImageGenCallPartialImageEvent

Émis lorsqu’une image partielle est disponible pendant la diffusion en continu de génération d’images.

Nom Type Descriptif Obligatoire Par défaut
item_id ficelle Identificateur unique de l’élément de génération d’image en cours de traitement. Oui
output_index entier L’index de l’élément de sortie dans le groupe de sortie de la réponse. Oui
partial_image_b64 ficelle Données d’image partielle encodées en base64, adaptées au rendu en tant qu’image. Oui
partial_image_index entier Index de base 0 pour l’image partielle (le back-end est basé sur 1, mais il s’agit de 0 pour l’utilisateur). Oui
sequence_number entier Numéro de séquence de l’élément de génération d’image en cours de traitement. Oui
type enum le type de l'événement ; Toujours « response.image_generation_call.partial_image ».
Valeurs possibles : response.image_generation_call.partial_image
Oui

OpenAI.ResponseInProgressEvent

Émis lorsque la réponse est en cours.

Nom Type Descriptif Obligatoire Par défaut
response OpenAI.Response Oui
└─ arrière-plan booléen ou null Non
└completed_at chaîne ou nulle Non
└content_filters tableau d’AzureContentFilterForResponsesAPI Le filtre de contenu résulte de RAI. Oui
Conversation └> OpenAI.ConversationReference ou null Non
└created_at entier Horodatage Unix (en secondes) de la création de cette réponse. Oui
Erreur └ ; OpenAI.ResponseError ou null Oui
└─ identifiant ficelle Identificateur unique pour cette réponse. Oui
└─ détails_incomplets OpenAI.ResponseIncompleteDetails ou null Oui
└─ Instructions chaîne ou tableau d’OpenAI.InputItem ou null Oui
└ max_output_tokens entier ou null Non
└max_tool_calls entier ou null Non
└─ Métadonnées OpenAI.Metadata ou null Non
└─ Modèle ficelle ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAI
offre un large éventail de modèles avec différentes fonctionnalités, performances
caractéristiques et points de prix. Reportez-vous au guide du modèle
pour parcourir et comparer les modèles disponibles.
Non
└─ Objet enum Type d’objet de cette ressource - toujours défini sur response.
Valeurs possibles : response
Oui
└─ Sortie tableau d’OpenAI.OutputItem Tableau d’éléments de contenu générés par le modèle.
- La longueur et l’ordre des éléments dans le output tableau dépendent
sur la réponse du modèle.
- Plutôt que d’accéder au premier élément du tableau output et
en supposant qu’il s’agit d’un assistant message avec le contenu généré par
du modèle, vous pouvez envisager d’utiliser la propriété output_text
pris en charge dans les kits SDK.
Oui
└─output_text chaîne ou nulle Non
└─ appels_outils_parallèles booléen Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. Oui Vrai
└identifiant_de_réponse_précédent (`previous_response_id`) chaîne ou nulle Non
└─ invite OpenAI.Prompt Référence à un modèle d’invite et à ses variables.
En savoir plus.
Non
└prompt_cache_key ficelle Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ. En savoir plus. Non
└prompt_cache_retention chaîne ou nulle Non
└─ Raisonnement OpenAI.Reasoning ou Null Non
└safety_identifier ficelle Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI.
Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus.
Non
└─ État enum État de la génération de réponse. Valeurs possibles : completed, failed,
in_progress, cancelled, queued ou incomplete.
Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete
Non
└─ Température nombre ou null Non 1
└─ texte OpenAI.ResponseTextParam Options de configuration d’une réponse texte à partir du modèle. Peut être du texte
brut ou des données JSON structurées. Pour en savoir plus:
- Entrées et sorties texte
- Sorties structurées
Non
└─ choix_outil OpenAI.ToolChoiceParam Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération
une réponse. Voir le tools paramètre pour voir comment spécifier les outils
le modèle peut effectuer un appel.
Non
└─ Outils OpenAI.ToolsArray Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous
peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.
Nous prenons en charge les catégories d’outils suivantes :
- Outils intégrés : outils fournis par OpenAI qui étendent le
Les capacités du modèle, comme recherche web
ou fichier c0. En savoir plus sur
outils intégrés.
- Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés
ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur
Outils MCP.
- Appels de fonction (outils personnalisés) : fonctions définies par vous,
activation du modèle pour appeler votre propre code avec des arguments fortement typés
et sorties. En savoir plus sur
fonction appelant. Vous pouvez également utiliser
outils personnalisés pour appeler votre propre code.
Non
├ top_logprobs entier ou null Non
└─ top_p nombre ou null Non 1
└─ troncature chaîne ou nulle Non handicapé
└─ utilisation OpenAI.ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie,
répartition des jetons de sortie et du nombre total de jetons utilisés.
Non
└─ Utilisateur chaîne (déconseillée) Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.
Identificateur stable pour vos utilisateurs finaux.
Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus.
Non
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; A toujours la valeur response.in_progress.
Valeurs possibles : response.in_progress
Oui

OpenAI.ResponseIncompleteDetails

Nom Type Descriptif Obligatoire Par défaut
reason enum
Valeurs possibles : max_output_tokens, content_filter
Non

OpenAI.ResponseIncompleteEvent

Événement émis lorsqu’une réponse se termine comme incomplète.

Nom Type Descriptif Obligatoire Par défaut
response OpenAI.Response Oui
└─ arrière-plan booléen ou null Non
└completed_at chaîne ou nulle Non
└content_filters tableau d’AzureContentFilterForResponsesAPI Le filtre de contenu résulte de RAI. Oui
Conversation └> OpenAI.ConversationReference ou null Non
└created_at entier Horodatage Unix (en secondes) de la création de cette réponse. Oui
Erreur └ ; OpenAI.ResponseError ou null Oui
└─ identifiant ficelle Identificateur unique pour cette réponse. Oui
└─ détails_incomplets OpenAI.ResponseIncompleteDetails ou null Oui
└─ Instructions chaîne ou tableau d’OpenAI.InputItem ou null Oui
└ max_output_tokens entier ou null Non
└max_tool_calls entier ou null Non
└─ Métadonnées OpenAI.Metadata ou null Non
└─ Modèle ficelle ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAI
offre un large éventail de modèles avec différentes fonctionnalités, performances
caractéristiques et points de prix. Reportez-vous au guide du modèle
pour parcourir et comparer les modèles disponibles.
Non
└─ Objet enum Type d’objet de cette ressource - toujours défini sur response.
Valeurs possibles : response
Oui
└─ Sortie tableau d’OpenAI.OutputItem Tableau d’éléments de contenu générés par le modèle.
- La longueur et l’ordre des éléments dans le output tableau dépendent
sur la réponse du modèle.
- Plutôt que d’accéder au premier élément du tableau output et
en supposant qu’il s’agit d’un assistant message avec le contenu généré par
du modèle, vous pouvez envisager d’utiliser la propriété output_text
pris en charge dans les kits SDK.
Oui
└─output_text chaîne ou nulle Non
└─ appels_outils_parallèles booléen Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. Oui Vrai
└identifiant_de_réponse_précédent (`previous_response_id`) chaîne ou nulle Non
└─ invite OpenAI.Prompt Référence à un modèle d’invite et à ses variables.
En savoir plus.
Non
└prompt_cache_key ficelle Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ. En savoir plus. Non
└prompt_cache_retention chaîne ou nulle Non
└─ Raisonnement OpenAI.Reasoning ou Null Non
└safety_identifier ficelle Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI.
Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus.
Non
└─ État enum État de la génération de réponse. Valeurs possibles : completed, failed,
in_progress, cancelled, queued ou incomplete.
Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete
Non
└─ Température nombre ou null Non 1
└─ texte OpenAI.ResponseTextParam Options de configuration d’une réponse texte à partir du modèle. Peut être du texte
brut ou des données JSON structurées. Pour en savoir plus:
- Entrées et sorties texte
- Sorties structurées
Non
└─ choix_outil OpenAI.ToolChoiceParam Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération
une réponse. Voir le tools paramètre pour voir comment spécifier les outils
le modèle peut effectuer un appel.
Non
└─ Outils OpenAI.ToolsArray Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous
peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.
Nous prenons en charge les catégories d’outils suivantes :
- Outils intégrés : outils fournis par OpenAI qui étendent le
Les capacités du modèle, comme recherche web
ou fichier c0. En savoir plus sur
outils intégrés.
- Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés
ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur
Outils MCP.
- Appels de fonction (outils personnalisés) : fonctions définies par vous,
activation du modèle pour appeler votre propre code avec des arguments fortement typés
et sorties. En savoir plus sur
fonction appelant. Vous pouvez également utiliser
outils personnalisés pour appeler votre propre code.
Non
├ top_logprobs entier ou null Non
└─ top_p nombre ou null Non 1
└─ troncature chaîne ou nulle Non handicapé
└─ utilisation OpenAI.ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie,
répartition des jetons de sortie et du nombre total de jetons utilisés.
Non
└─ Utilisateur chaîne (déconseillée) Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.
Identificateur stable pour vos utilisateurs finaux.
Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus.
Non
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; A toujours la valeur response.incomplete.
Valeurs possibles : response.incomplete
Oui

OpenAI.ResponseItemList

Liste des éléments de réponse.

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.ItemResource Liste des éléments utilisés pour générer cette réponse. Oui
premier_identifiant ficelle ID du premier élément de la liste. Oui
has_more booléen Indique s’il existe d’autres éléments disponibles. Oui
last_id ficelle ID du dernier élément de la liste. Oui
objet enum Le type d’objet retourné doit être list.
Valeurs possibles : list
Oui

OpenAI.ResponseLogProb

Un logprob est la probabilité logarithmique que le modèle affecte à la production d’un jeton particulier à une position donnée dans la séquence. Les valeurs logprob moins négatives (plus élevées) indiquent une plus grande confiance du modèle dans ce choix de jeton.

Nom Type Descriptif Obligatoire Par défaut
logprob nombre La probabilité logarithmique de ce jeton. Oui
token ficelle Jeton de texte possible. Oui
top_logprobs tableau d’OpenAI.ResponseLogProbTopLogprobs Probabilité du journal des 20 premiers jetons les plus probables. Non

OpenAI.ResponseLogProbTopLogprobs

Nom Type Descriptif Obligatoire Par défaut
logprob nombre Non
token ficelle Non

OpenAI.ResponseMCPCallArgumentsDeltaEvent

Émis lorsqu’il y a un delta (mise à jour partielle) des arguments d’un appel d’outil de MCP.

Nom Type Descriptif Obligatoire Par défaut
delta ficelle Chaîne JSON contenant la mise à jour partielle vers les arguments de l’appel de l’outil MCP. Oui
item_id ficelle L’identifiant unique de l’élément d’appel de l’outil de MCP en cours de traitement. Oui
output_index entier L’index de l’élément de sortie dans le groupe de sortie de la réponse. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; Toujours « response.mcp_call_arguments.delta ».
Valeurs possibles : response.mcp_call_arguments.delta
Oui

OpenAI.ResponseMCPCallFailedEvent

Émis lorsqu’un appel d’outil MCP a échoué.

Nom Type Descriptif Obligatoire Par défaut
item_id ficelle ID de l’élément d’appel de l’outil MCP qui a échoué. Oui
output_index entier Index de l’élément de sortie qui a échoué. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; Toujours « response.mcp_call.failed ».
Valeurs possibles : response.mcp_call.failed
Oui

OpenAI.ResponseMCPCallInProgressEvent

Émis lorsqu’un appel d’outil MCP est en cours.

Nom Type Descriptif Obligatoire Par défaut
item_id ficelle L’identifiant unique de l’élément d’appel de l’outil de MCP en cours de traitement. Oui
output_index entier L’index de l’élément de sortie dans le groupe de sortie de la réponse. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; Toujours « response.mcp_call.in_progress ».
Valeurs possibles : response.mcp_call.in_progress
Oui

OpenAI.ResponseMCPListToolsFailedEvent

Émis lorsque la tentative de liste des outils MCP disponibles a échoué.

Nom Type Descriptif Obligatoire Par défaut
item_id ficelle ID de l’élément d’appel de l’outil MCP qui a échoué. Oui
output_index entier Index de l’élément de sortie qui a échoué. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; Toujours « response.mcp_list_tools.failed ».
Valeurs possibles : response.mcp_list_tools.failed
Oui

OpenAI.ResponseMCPListToolsInProgressEvent

Émis lorsque le système est en train de récupérer la liste des outils MCP disponibles.

Nom Type Descriptif Obligatoire Par défaut
item_id ficelle ID de l’élément d’appel de l’outil MCP en cours de traitement. Oui
output_index entier Index de l’élément de sortie en cours de traitement. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; Toujours « response.mcp_list_tools.in_progress ».
Valeurs possibles : response.mcp_list_tools.in_progress
Oui

OpenAI.ResponseModalities

Types de sortie que vous souhaitez générer le modèle. La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut : ["text"] Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser : ["text", "audio"]

Ce schéma accepte l’un des types suivants :

  • array
  • zéro

OpenAI.ResponseOutputItemAddedEvent

Émis lorsqu’un nouvel élément de sortie est ajouté.

Nom Type Descriptif Obligatoire Par défaut
item OpenAI.OutputItem Oui
└─ Type OpenAI.OutputItemType Oui
output_index entier Index de l’élément de sortie qui a été ajouté. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; A toujours la valeur response.output_item.added.
Valeurs possibles : response.output_item.added
Oui

OpenAI.ResponseOutputTextAnnotationAddedEvent

Émis lorsqu’une annotation est ajoutée au contenu du texte de sortie.

Nom Type Descriptif Obligatoire Par défaut
annotation OpenAI.Annotation Annotation qui s’applique à une étendue de texte de sortie. Oui
└─ Type OpenAI.AnnotationType Oui
annotation_index entier Index de l’annotation dans la partie de contenu. Oui
content_index entier Index de la partie de contenu dans l’élément de sortie. Oui
item_id ficelle Identificateur unique de l’élément auquel l’annotation est ajoutée. Oui
output_index entier L’index de l’élément de sortie dans le groupe de sortie de la réponse. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; Toujours « response.output_text.annotation.added ».
Valeurs possibles : response.output_text.annotation.added
Oui

OpenAI.ResponsePromptVariables

Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée de réponse tels que des images ou des fichiers.

Type : objet

OpenAI.ResponseQueuedEvent

Émis lorsqu’une réponse est mise en file d’attente et en attente d’être traitée.

Nom Type Descriptif Obligatoire Par défaut
response OpenAI.Response Oui
└─ arrière-plan booléen ou null Non
└completed_at chaîne ou nulle Non
└content_filters tableau d’AzureContentFilterForResponsesAPI Le filtre de contenu résulte de RAI. Oui
Conversation └> OpenAI.ConversationReference ou null Non
└created_at entier Horodatage Unix (en secondes) de la création de cette réponse. Oui
Erreur └ ; OpenAI.ResponseError ou null Oui
└─ identifiant ficelle Identificateur unique pour cette réponse. Oui
└─ détails_incomplets OpenAI.ResponseIncompleteDetails ou null Oui
└─ Instructions chaîne ou tableau d’OpenAI.InputItem ou null Oui
└ max_output_tokens entier ou null Non
└max_tool_calls entier ou null Non
└─ Métadonnées OpenAI.Metadata ou null Non
└─ Modèle ficelle ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAI
offre un large éventail de modèles avec différentes fonctionnalités, performances
caractéristiques et points de prix. Reportez-vous au guide du modèle
pour parcourir et comparer les modèles disponibles.
Non
└─ Objet enum Type d’objet de cette ressource - toujours défini sur response.
Valeurs possibles : response
Oui
└─ Sortie tableau d’OpenAI.OutputItem Tableau d’éléments de contenu générés par le modèle.
- La longueur et l’ordre des éléments dans le output tableau dépendent
sur la réponse du modèle.
- Plutôt que d’accéder au premier élément du tableau output et
en supposant qu’il s’agit d’un assistant message avec le contenu généré par
du modèle, vous pouvez envisager d’utiliser la propriété output_text
pris en charge dans les kits SDK.
Oui
└─output_text chaîne ou nulle Non
└─ appels_outils_parallèles booléen Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. Oui Vrai
└identifiant_de_réponse_précédent (`previous_response_id`) chaîne ou nulle Non
└─ invite OpenAI.Prompt Référence à un modèle d’invite et à ses variables.
En savoir plus.
Non
└prompt_cache_key ficelle Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ. En savoir plus. Non
└prompt_cache_retention chaîne ou nulle Non
└─ Raisonnement OpenAI.Reasoning ou Null Non
└safety_identifier ficelle Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI.
Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus.
Non
└─ État enum État de la génération de réponse. Valeurs possibles : completed, failed,
in_progress, cancelled, queued ou incomplete.
Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete
Non
└─ Température nombre ou null Non 1
└─ texte OpenAI.ResponseTextParam Options de configuration d’une réponse texte à partir du modèle. Peut être du texte
brut ou des données JSON structurées. Pour en savoir plus:
- Entrées et sorties texte
- Sorties structurées
Non
└─ choix_outil OpenAI.ToolChoiceParam Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération
une réponse. Voir le tools paramètre pour voir comment spécifier les outils
le modèle peut effectuer un appel.
Non
└─ Outils OpenAI.ToolsArray Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous
peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.
Nous prenons en charge les catégories d’outils suivantes :
- Outils intégrés : outils fournis par OpenAI qui étendent le
Les capacités du modèle, comme recherche web
ou fichier c0. En savoir plus sur
outils intégrés.
- Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés
ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur
Outils MCP.
- Appels de fonction (outils personnalisés) : fonctions définies par vous,
activation du modèle pour appeler votre propre code avec des arguments fortement typés
et sorties. En savoir plus sur
fonction appelant. Vous pouvez également utiliser
outils personnalisés pour appeler votre propre code.
Non
├ top_logprobs entier ou null Non
└─ top_p nombre ou null Non 1
└─ troncature chaîne ou nulle Non handicapé
└─ utilisation OpenAI.ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie,
répartition des jetons de sortie et du nombre total de jetons utilisés.
Non
└─ Utilisateur chaîne (déconseillée) Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.
Identificateur stable pour vos utilisateurs finaux.
Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus.
Non
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; Toujours « response.queued ».
Valeurs possibles : response.queued
Oui

OpenAI.ResponseReasoningSummaryPartAddedEvent

Émis lorsqu’une nouvelle partie récapitulative de raisonnement est ajoutée.

Nom Type Descriptif Obligatoire Par défaut
item_id ficelle ID de l’élément avec lequel cette partie récapitulative est associée. Oui
output_index entier Index de l’élément de sortie auquel cette partie récapitulative est associée. Oui
part OpenAI.ResponseReasoningSummaryPartAddedEventPart Oui
└─ texte ficelle Oui
└─ Type enum
Valeurs possibles : summary_text
Oui
sequence_number entier Numéro de séquence de cet événement. Oui
summary_index entier Index de la partie récapitulative dans le résumé du raisonnement. Oui
type enum le type de l'événement ; A toujours la valeur response.reasoning_summary_part.added.
Valeurs possibles : response.reasoning_summary_part.added
Oui

OpenAI.ResponseReasoningSummaryPartAddedEventPart

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Oui
type enum
Valeurs possibles : summary_text
Oui

OpenAI.ResponseReasoningSummaryTextDeltaEvent

Émis lorsqu’un delta est ajouté à un texte récapitulatif de raisonnement.

Nom Type Descriptif Obligatoire Par défaut
delta ficelle Le delta du texte qui a été ajouté au résumé. Oui
item_id ficelle L’ID de l’élément associé à ce texte de delta de résumé. Oui
output_index entier L’index de l’élément de sortie associé à ce delta de texte de résumé. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
summary_index entier Index de la partie récapitulative dans le résumé du raisonnement. Oui
type enum le type de l'événement ; A toujours la valeur response.reasoning_summary_text.delta.
Valeurs possibles : response.reasoning_summary_text.delta
Oui

OpenAI.ResponseReasoningTextDeltaEvent

Émis lorsqu’un delta est ajouté à un texte de raisonnement.

Nom Type Descriptif Obligatoire Par défaut
content_index entier L’index de la partie de contenu du raisonnement auquel ce delta est associé. Oui
delta ficelle Delta de texte ajouté au contenu du raisonnement. Oui
item_id ficelle ID de l’élément associé à ce delta de texte de raisonnement. Oui
output_index entier Index de l’élément de sortie auquel ce delta de texte de raisonnement est associé. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; A toujours la valeur response.reasoning_text.delta.
Valeurs possibles : response.reasoning_text.delta
Oui

OpenAI.ResponseRefusalDeltaEvent

Émis lorsqu’il existe un texte de refus partiel.

Nom Type Descriptif Obligatoire Par défaut
content_index entier Index de la partie de contenu à laquelle le texte de refus est ajouté. Oui
delta ficelle Texte de refus ajouté. Oui
item_id ficelle ID de l’élément de sortie auquel le texte de refus est ajouté. Oui
output_index entier Index de l’élément de sortie auquel le texte de refus est ajouté. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; A toujours la valeur response.refusal.delta.
Valeurs possibles : response.refusal.delta
Oui

OpenAI.ResponseStreamOptions

Options de diffusion en continu des réponses. Définissez cette valeur uniquement lorsque vous définissez stream: true.

Nom Type Descriptif Obligatoire Par défaut
include_obfuscation booléen Lorsque la valeur est true, l’obfuscation de flux est activée. Ajouts d’obfuscation de flux
caractères aléatoires sur un obfuscation champ sur les événements delta de diffusion en continu vers
normalisez les tailles de charge utile en tant qu’atténuation de certaines attaques par canal latéral.
Ces champs d’obfuscation sont inclus par défaut, mais ajoutent une petite quantité
d’une surcharge sur le flux de données. Vous pouvez définir sur include_obfuscation
false pour optimiser la bande passante si vous approuvez les liens réseau entre
votre application et l’API OpenAI.
Non

OpenAI.ResponseTextDeltaEvent

Émis lorsqu’il existe un delta de texte supplémentaire.

Nom Type Descriptif Obligatoire Par défaut
content_index entier Index de la partie de contenu à laquelle le delta de texte a été ajouté. Oui
delta ficelle Le delta de texte qui a été ajouté. Oui
item_id ficelle ID de l’élément de sortie auquel le delta de texte a été ajouté. Oui
logprobs tableau d’OpenAI.ResponseLogProb Probabilités de journal des jetons dans le delta. Oui
output_index entier Index de l’élément de sortie à laquelle le delta de texte a été ajouté. Oui
sequence_number entier Numéro de séquence de cet événement. Oui
type enum le type de l'événement ; A toujours la valeur response.output_text.delta.
Valeurs possibles : response.output_text.delta
Oui

OpenAI.ResponseTextParam

Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus:

Nom Type Descriptif Obligatoire Par défaut
format OpenAI.TextResponseFormatConfiguration Objet spécifiant le format que le modèle doit générer.
La configuration de { "type": "json_schema" } active les sorties structurées,
qui garantit que le modèle correspondra à votre schéma JSON fourni. Apprenez-en davantage dans le

Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.
*Non recommandé pour les modèles gpt-4o et versions ultérieures :
Activer { "type": "json_object" } permet de passer au mode JSON plus ancien, qui
garantit que le message généré par le modèle est json valide. Utilisation de json_schema
La solution est préférée pour les modèles qui la prennent en charge.
Non
verbosité OpenAI.Verbosity Contraint la verbosité de la réponse du modèle. Les valeurs inférieures entraînent
des réponses plus concises, tandis que des valeurs plus élevées entraînent des réponses plus détaillées.
Les valeurs actuellement prises en charge sont low, medium et high.
Non

OpenAI.ResponseUsage

Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés.

Nom Type Descriptif Obligatoire Par défaut
input_tokens entier Nombre de jetons d’entrée. Oui
input_tokens_details OpenAI.ResponseUsageInputTokensDetails Oui
└cached_tokens entier Oui
output_tokens entier Nombre de jetons de sortie. Oui
output_tokens_details OpenAI.ResponseUsageOutputTokensDetails Oui
└─ jetons_de_raisonnement entier Oui
total_tokens entier Nombre total de jetons utilisés. Oui

OpenAI.ResponseUsageInputTokensDetails

Nom Type Descriptif Obligatoire Par défaut
cached_tokens entier Oui

OpenAI.ResponseUsageOutputTokensDetails

Nom Type Descriptif Obligatoire Par défaut
jetons_de_raisonnement entier Oui

OpenAI.ResponseWebSearchCallInProgressEvent

Remarque : web_search n’est pas encore disponible via Azure OpenAI.

Nom Type Descriptif Obligatoire Par défaut
item_id ficelle ID unique de l’élément de sortie associé à l’appel de recherche web. Oui
output_index entier Index de l’élément de sortie auquel l’appel de recherche web est associé. Oui
sequence_number entier Numéro de séquence de l’appel de recherche web en cours de traitement. Oui
type enum le type de l'événement ; A toujours la valeur response.web_search_call.in_progress.
Valeurs possibles : response.web_search_call.in_progress
Oui

OpenAI.ResponseWebSearchCallSearchingEvent

Remarque : web_search n’est pas encore disponible via Azure OpenAI.

Nom Type Descriptif Obligatoire Par défaut
item_id ficelle ID unique de l’élément de sortie associé à l’appel de recherche web. Oui
output_index entier Index de l’élément de sortie auquel l’appel de recherche web est associé. Oui
sequence_number entier Numéro de séquence de l’appel de recherche web en cours de traitement. Oui
type enum le type de l'événement ; A toujours la valeur response.web_search_call.searching.
Valeurs possibles : response.web_search_call.searching
Oui

OpenAI.RunCompletionUsage

Statistiques d’utilisation relatives à l’exécution. Cette valeur est null si l’exécution n’est pas dans un état terminal (c’est-à-dire in_progress, queued, etc.).

Nom Type Descriptif Obligatoire Par défaut
completion_tokens entier Nombre de jetons d’achèvement utilisés au cours de l’exécution. Oui
prompt_tokens entier Nombre de jetons de prompt utilisés au cours de l’exécution. Oui
total_tokens entier Nombre total de jetons utilisés (prompt + achèvement). Oui

OpenAI.RunGraderRequest

Nom Type Descriptif Obligatoire Par défaut
outil de notation OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderPython ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint Classe utilisée pour le travail de réglage précis. Oui
item OpenAI.RunGraderRequestItem Non
model_sample ficelle Exemple de modèle à évaluer. Cette valeur sera utilisée pour remplir
l’espace de noms sample. Pour plus d’informations, consultez le guide.
La variable output_json est remplie si l’exemple de modèle est une
chaîne JSON valide.
Oui

OpenAI.RunGraderRequestItem

Type : objet

OpenAI.RunGraderResponse

Nom Type Descriptif Obligatoire Par défaut
metadata OpenAI.RunGraderResponseMetadata Oui
model_grader_token_usage_per_model objet Oui
récompense nombre Oui
sub_rewards objet Oui

OpenAI.RunGraderResponseMetadata

Nom Type Descriptif Obligatoire Par défaut
Erreurs OpenAI.RunGraderResponseMetadataErrors Oui
execution_time nombre Oui
nom ficelle Oui
sampled_model_name chaîne ou nulle Oui
Scores objet Oui
token_usage entier ou null Oui
type ficelle Oui

OpenAI.RunGraderResponseMetadataErrors

Nom Type Descriptif Obligatoire Par défaut
formula_parse_error booléen Oui
invalid_variable_error booléen Oui
model_grader_parse_error booléen Oui
model_grader_refusal_error booléen Oui
model_grader_server_error booléen Oui
model_grader_server_error_details chaîne ou nulle Oui
other_error booléen Oui
python_grader_runtime_error booléen Oui
python_grader_runtime_error_details chaîne ou nulle Oui
python_grader_server_error booléen Oui
python_grader_server_error_type chaîne ou nulle Oui
sample_parse_error booléen Oui
truncated_observation_error booléen Oui
unresponsive_reward_error booléen Oui

OpenAI.RunObject

Représente une exécution d’exécution sur un thread.

Nom Type Descriptif Obligatoire Par défaut
assistant_id ficelle ID de l’Assistant utilisé pour l’exécution de cette exécution. Oui
cancelled_at chaîne ou nulle Le timestamp Unix (en secondes) lorsque l’exécution a été annulée. Oui
terminé_à chaîne ou nulle Horodatage Unix (en secondes) de la fin de l’exécution. Oui
date_de_création entier Horodatage Unix (en secondes) de la création de l’exécution. Oui
expires_at chaîne ou nulle Horodatage Unix (en secondes) de l’expiration de l’exécution. Oui
failed_at chaîne ou nulle Horodatage Unix (en secondes) de l’échec de l’exécution. Oui
id ficelle Identificateur, qui peut être référencé dans les points de terminaison d’API. Oui
incomplete_details OpenAI.RunObjectIncompleteDetails ou null Détails sur la raison pour laquelle l’exécution est incomplète. Sera null si l’exécution n’est pas incomplète. Oui
instructions ficelle Instructions que l’Assistant a utilisées pour cette exécution. Oui
dernière_erreur OpenAI.RunObjectLastError ou null Dernière erreur associée à cette exécution. Est null en l’absence d’erreurs. Oui
max_completion_tokens entier ou null Nombre maximal de jetons de saisie semi-automatique spécifiés comme ayant été utilisés au cours de l’exécution. Oui
max_prompt_tokens entier ou null Nombre maximal de jetons de prompt spécifiés comme ayant été utilisés au cours de l’exécution. Oui
metadata OpenAI.Metadata ou null Oui
modèle ficelle Modèle utilisé par l’Assistant pour cette exécution. Oui
objet enum Le type d’objet, qui est toujours thread.run.
Valeurs possibles : thread.run
Oui
parallel_tool_calls OpenAI.ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Oui
required_action OpenAI.RunObjectRequiredAction ou null Détails de l’action requise pour poursuivre l’exécution. Est null si aucune action n’est requise. Oui
format_de_réponse OpenAI.AssistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.
Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le
La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.
Important :* lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Oui
started_at chaîne ou nulle Horodatage Unix (en secondes) du démarrage de l’exécution. Oui
status OpenAI.RunStatus État de l’exécution, qui peut être soit queued, , requires_actionin_progresscancelledcancelling, , failed, , , completed, incompleteou .expired Oui
température nombre ou null La température d’échantillonnage utilisée pour cette exécution. Si elle n’est pas définie, la valeur par défaut est 1. Non
thread_id ficelle ID du thread qui a été exécuté dans le cadre de cette exécution. Oui
tool_choice OpenAI.AssistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils avant de répondre à l’utilisateur.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Oui
outils tableau d’OpenAI.AssistantTool Liste des outils utilisés par l’Assistant pour cette exécution. Oui []
top_p nombre ou null La valeur d’échantillonnage du noyau utilisée pour cette exécution. Si elle n’est pas définie, la valeur par défaut est 1. Non
truncation_strategy OpenAI.TruncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. Oui
usage OpenAI.RunCompletionUsage ou null Oui

OpenAI.RunObjectIncompleteDetails

Nom Type Descriptif Obligatoire Par défaut
reason enum
Valeurs possibles : max_completion_tokens, max_prompt_tokens
Non

OpenAI.RunObjectLastError

Nom Type Descriptif Obligatoire Par défaut
code enum
Valeurs possibles : server_error, , rate_limit_exceededinvalid_prompt
Oui
message ficelle Oui

OpenAI.RunObjectRequiredAction

Nom Type Descriptif Obligatoire Par défaut
submit_tool_outputs OpenAI.RunObjectRequiredActionSubmitToolOutputs Oui
type enum
Valeurs possibles : submit_tool_outputs
Oui

OpenAI.RunObjectRequiredActionSubmitToolOutputs

Nom Type Descriptif Obligatoire Par défaut
tool_calls tableau d’OpenAI.RunToolCallObject Oui

OpenAI.RunStatus

État de l’exécution, qui peut être soit queued, , requires_actionin_progresscancelledcancelling, , failed, , , completed, incompleteou .expired

Propriété Valeur
Type ficelle
Valeurs queued
in_progress
requires_action
cancelling
cancelled
failed
completed
incomplete
expired

OpenAI.RunStepCompletionUsage

Statistiques d’utilisation relatives à l’étape d’exécution. Cette valeur sera null pendant que l’état de l’étape d’exécution est in_progress.

Nom Type Descriptif Obligatoire Par défaut
completion_tokens entier Nombre de jetons d’achèvement utilisés au cours de l’étape d’exécution. Oui
prompt_tokens entier Nombre de jetons de prompt utilisés au cours de l’étape d’exécution. Oui
total_tokens entier Nombre total de jetons utilisés (prompt + achèvement). Oui

OpenAI.RunStepDetailsMessageCreationObject

Détails de la création du message à l’étape d’exécution.

Nom Type Descriptif Obligatoire Par défaut
message_creation OpenAI.RunStepDetailsMessageCreationObjectMessageCreation Oui
type enum A toujours la valeur message_creation.
Valeurs possibles : message_creation
Oui

OpenAI.RunStepDetailsMessageCreationObjectMessageCreation

Nom Type Descriptif Obligatoire Par défaut
message_id ficelle Oui

OpenAI.RunStepDetailsToolCall

Discriminateur pour OpenAI.RunStepDetailsToolCall

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
code_interpreter OpenAI.RunStepDetailsToolCallsCodeObject
file_search OpenAI.RunStepDetailsToolCallsFileSearchObject
function OpenAI.RunStepDetailsToolCallsFunctionObject
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.RunStepDetailsToolCallType Oui

OpenAI.RunStepDetailsToolCallType

Propriété Valeur
Type ficelle
Valeurs code_interpreter
file_search
function

OpenAI.RunStepDetailsToolCallsCodeObject

Détails de l’appel de l’outil Interpréteur de code dans lequel l’étape d’exécution était impliquée.

Nom Type Descriptif Obligatoire Par défaut
code_interpreter OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter Oui
└─ Entrée ficelle Oui
└─ sorties tableau d’OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject ou OpenAI.RunStepDetailsToolCallsCodeOutputImageObject Oui
id ficelle ID de l’appel de l’outil. Oui
type enum Le type d’appel d’outil. Cela va toujours être code_interpreter pour ce type d’appel d’outil.
Valeurs possibles : code_interpreter
Oui

OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter

Nom Type Descriptif Obligatoire Par défaut
entrée ficelle Oui
sorties tableau d’OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject ou OpenAI.RunStepDetailsToolCallsCodeOutputImageObject Oui

OpenAI.RunStepDetailsToolCallsCodeOutputImageObject

Nom Type Descriptif Obligatoire Par défaut
image OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage Oui
type enum A toujours la valeur image.
Valeurs possibles : image
Oui

OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage

Nom Type Descriptif Obligatoire Par défaut
identifiant_de_fichier ficelle Oui

OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject

Sortie de texte de l’appel de l’outil Interpréteur de code dans le cadre d’une étape d’exécution.

Nom Type Descriptif Obligatoire Par défaut
logs ficelle La sortie de texte de l’appel de l’outil Interpréteur de code. Oui
type enum A toujours la valeur logs.
Valeurs possibles : logs
Oui

OpenAI.RunStepDetailsToolCallsFileSearchObject

Nom Type Descriptif Obligatoire Par défaut
file_search OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch Oui
└ranking_options OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject Options de classement pour la recherche de fichiers. Non
─ résultats tableau d’OpenAI.RunStepDetailsToolCallsFileSearchResultObject Non
id ficelle L’ID de l’objet d’appel d’outil. Oui
type enum Le type d’appel d’outil. Cela va toujours être file_search pour ce type d’appel d’outil.
Valeurs possibles : file_search
Oui

OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch

Nom Type Descriptif Obligatoire Par défaut
options_de_classement OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject Options de classement pour la recherche de fichiers. Non
results tableau d’OpenAI.RunStepDetailsToolCallsFileSearchResultObject Non

OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject

Options de classement pour la recherche de fichiers.

Nom Type Descriptif Obligatoire Par défaut
ranker OpenAI.FileSearchRanker Outil de classement à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, le classificateur auto sera utilisé. Oui
seuil de score nombre Seuil de score pour la recherche de fichiers. Toutes les valeurs doivent être un nombre à virgule flottante compris entre 0 et 1.
Contraintes : min : 0, max : 1
Oui

OpenAI.RunStepDetailsToolCallsFileSearchResultObject

Instance de résultat de la recherche de fichiers.

Nom Type Descriptif Obligatoire Par défaut
contenu tableau d’OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent Contenu du résultat trouvé. Le contenu est inclus uniquement s’il est demandé via le paramètre de requête Include. Non
identifiant_de_fichier ficelle ID du fichier dans lequel le résultat a été trouvé. Oui
nom_de_fichier ficelle Nom du fichier dans lequel le résultat a été trouvé. Oui
score nombre Score du résultat. Toutes les valeurs doivent être un nombre à virgule flottante compris entre 0 et 1.
Contraintes : min : 0, max : 1
Oui

OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Non
type enum
Valeurs possibles : text
Non

OpenAI.RunStepDetailsToolCallsFunctionObject

Nom Type Descriptif Obligatoire Par défaut
function OpenAI.RunStepDetailsToolCallsFunctionObjectFunction Oui
└─ Arguments ficelle Oui
└─ Nom ficelle Oui
└─ Sortie chaîne ou nulle Oui
id ficelle L’ID de l’objet d’appel d’outil. Oui
type enum Le type d’appel d’outil. Cela va toujours être function pour ce type d’appel d’outil.
Valeurs possibles : function
Oui

OpenAI.RunStepDetailsToolCallsFunctionObjectFunction

Nom Type Descriptif Obligatoire Par défaut
arguments ficelle Oui
nom ficelle Oui
output chaîne ou nulle Oui

OpenAI.RunStepDetailsToolCallsObject

Détails de l’appel d’outil.

Nom Type Descriptif Obligatoire Par défaut
tool_calls tableau d’OpenAI.RunStepDetailsToolCall Un tableau d’appels d’outils dans lequel l’étape d’exécution était impliquée. Celles-ci peuvent être associées à l’un des trois types d’outils : code_interpreter, file_searchou function. Oui
type enum A toujours la valeur tool_calls.
Valeurs possibles : tool_calls
Oui

OpenAI.RunStepObject

Représente une étape dans une exécution.

Nom Type Descriptif Obligatoire Par défaut
assistant_id ficelle ID de l’Assistant associé à l’étape d’exécution. Oui
cancelled_at chaîne ou nulle Oui
terminé_à chaîne ou nulle Oui
date_de_création entier Horodatage Unix (en secondes) pour la création de l’étape d’exécution. Oui
expired_at chaîne ou nulle Oui
failed_at chaîne ou nulle Oui
id ficelle Identificateur de l’étape d’exécution qui peut être référencé dans les points de terminaison d’API. Oui
dernière_erreur OpenAI.RunStepObjectLastError ou null Oui
metadata OpenAI.Metadata ou null Oui
objet enum Le type d’objet, qui est toujours thread.run.step.
Valeurs possibles : thread.run.step
Oui
run_id ficelle ID de l’exécution dont fait partie cette étape d’exécution. Oui
status enum État de l’étape d’exécution, qui peut être in_progresssoit , , cancelledfailed, , completedou expired.
Valeurs possibles : in_progress, , cancelledfailed, completed,expired
Oui
step_details OpenAI.RunStepDetailsMessageCreationObject ou OpenAI.RunStepDetailsToolCallsObject Détails de l’étape d’exécution. Oui
thread_id ficelle ID du thread qui a été exécuté. Oui
type enum Le type d’étape d’exécution, qui peut être message_creation ou tool_calls.
Valeurs possibles : message_creation, tool_calls
Oui
usage OpenAI.RunStepCompletionUsage Statistiques d’utilisation relatives à l’étape d’exécution. Cette valeur sera null pendant que l’état de l’étape d’exécution est in_progress. Oui

OpenAI.RunStepObjectLastError

Nom Type Descriptif Obligatoire Par défaut
code enum
Valeurs possibles : server_error, rate_limit_exceeded
Oui
message ficelle Oui

OpenAI.RunToolCallObject

Objets d’appel d’outil

Nom Type Descriptif Obligatoire Par défaut
function OpenAI.RunToolCallObjectFunction Oui
└─ Arguments ficelle Oui
└─ Nom ficelle Oui
id ficelle ID de l’appel de l’outil. Cet ID doit être référencé lorsque vous envoyez les sorties de l’outil à l’aide des sorties de l’outil Envoyer pour exécuter le point de terminaison. Oui
type enum Type d’appel d’outil pour lequel la sortie est requise. Pour l’instant, c’est toujours function.
Valeurs possibles : function
Oui

OpenAI.RunToolCallObjectFunction

Nom Type Descriptif Obligatoire Par défaut
arguments ficelle Oui
nom ficelle Oui

OpenAI.Capture d’écran

Action de capture d’écran.

Nom Type Descriptif Obligatoire Par défaut
type enum Spécifie le type d’événement. Pour une action de capture d’écran, cette propriété est
toujours défini sur screenshot.
Valeurs possibles : screenshot
Oui

OpenAI.Scroll

Action de défilement.

Nom Type Descriptif Obligatoire Par défaut
scroll_x entier Distance de défilement horizontale. Oui
scroll_y entier Distance de défilement verticale. Oui
type enum Spécifie le type d’événement. Pour une action de défilement, cette propriété est
toujours défini sur scroll.
Valeurs possibles : scroll
Oui
x entier Coordonnée x où le défilement s’est produit. Oui
y entier Coordonnée y où le défilement s’est produit. Oui

OpenAI.SearchContextSize

Propriété Valeur
Type ficelle
Valeurs low
medium
high

OpenAI.SpecificApplyPatchParam

Force le modèle à appeler l’outil apply_patch lors de l’exécution d’un appel d’outil.

Nom Type Descriptif Obligatoire Par défaut
type enum Outil à appeler. A toujours la valeur apply_patch.
Valeurs possibles : apply_patch
Oui

OpenAI.SpecificFunctionShellParam

Force le modèle à appeler l’outil shell lorsqu’un appel d’outil est requis.

Nom Type Descriptif Obligatoire Par défaut
type enum Outil à appeler. A toujours la valeur shell.
Valeurs possibles : shell
Oui

OpenAI.StaticChunkingStrategy

Nom Type Descriptif Obligatoire Par défaut
chunk_overlap_tokens entier Nombre de jetons qui se chevauchent entre segmentations. La valeur par défaut est 400.
Notez que le chevauchement ne doit pas excéder la moitié de max_chunk_size_tokens.
Oui
max_chunk_size_tokens entier Nombre maximal de jetons dans chaque segmentation. La valeur par défaut est 800. La valeur minimale est 100, alors que la valeur maximale est 4096.
Contraintes : min : 100, max : 4096
Oui

OpenAI.StaticChunkingStrategyRequestParam

Personnalisez votre propre stratégie de segmentation en définissant la taille de bloc et le chevauchement de blocs.

Nom Type Descriptif Obligatoire Par défaut
statique OpenAI.StaticChunkingStrategy Oui
type enum A toujours la valeur static.
Valeurs possibles : static
Oui

OpenAI.StaticChunkingStrategyResponseParam

Nom Type Descriptif Obligatoire Par défaut
statique OpenAI.StaticChunkingStrategy Oui
type enum A toujours la valeur static.
Valeurs possibles : static
Oui

OpenAI.StopConfiguration

Non pris en charge par les derniers modèles de raisonnement o3 et o4-mini. Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.

Ce schéma accepte l’un des types suivants :

  • array
  • zéro

OpenAI.SubmitToolOutputsRunRequest

Nom Type Descriptif Obligatoire Par défaut
ruisseau booléen ou null Non
tool_outputs tableau d’OpenAI.SubmitToolOutputsRunRequestToolOutputs Liste des outils pour lesquels les sorties sont envoyées. Oui

OpenAI.SubmitToolOutputsRunRequestToolOutputs

Nom Type Descriptif Obligatoire Par défaut
output ficelle Non
tool_call_id ficelle Non

OpenAI.Summary

Un texte résumé tiré du modèle.

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Un résumé des résultats de raisonnement du modèle jusqu’à présent. Oui
type enum Type de l’objet. A toujours la valeur summary_text.
Valeurs possibles : summary_text
Oui

OpenAI.SummaryTextContent

Un texte résumé tiré du modèle.

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Un résumé des résultats de raisonnement du modèle jusqu’à présent. Oui
type enum Type de l’objet. A toujours la valeur summary_text.
Valeurs possibles : summary_text
Oui

OpenAI.TextAnnotation

Discriminateur pour OpenAI.TextAnnotation

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
file_citation OpenAI.MessageContentTextAnnotationsFileCitationObject
file_path OpenAI.MessageContentTextAnnotationsFilePathObject
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.TextAnnotationType Oui

OpenAI.TextAnnotationType

Propriété Valeur
Type ficelle
Valeurs file_citation
file_path

OpenAI.TextContent

Contenu texte.

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Oui
type enum
Valeurs possibles : text
Oui

OpenAI.TextResponseFormatConfiguration

Objet spécifiant le format que le modèle doit générer. La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Apprenez-en davantage dans le

Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires. Non recommandé pour gpt-4o et modèles plus récents :* Réglage pour { "type": "json_object" } activer l’ancien mode JSON, qui garantit que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.

Discriminateur pour OpenAI.TextResponseFormatConfiguration

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
json_schema OpenAI.TextResponseFormatJsonSchema
text OpenAI.TextResponseFormatConfigurationResponseFormatText
json_object OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.TextResponseFormatConfigurationType Oui

OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject

Format de réponse d’objet JSON. Méthode plus ancienne de génération de réponses JSON. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. Notez que le modèle ne génère pas de JSON sans message système ou utilisateur lui demandant de le faire.

Nom Type Descriptif Obligatoire Par défaut
type enum Type de format de réponse défini. A toujours la valeur json_object.
Valeurs possibles : json_object
Oui

OpenAI.TextResponseFormatConfigurationResponseFormatText

Format de réponse par défaut. Utilisé pour générer des réponses de texte.

Nom Type Descriptif Obligatoire Par défaut
type enum Type de format de réponse défini. A toujours la valeur text.
Valeurs possibles : text
Oui

OpenAI.TextResponseFormatConfigurationType

Propriété Valeur
Type ficelle
Valeurs text
json_schema
json_object

OpenAI.TextResponseFormatJsonSchema

Format de réponse de schéma JSON. Utilisé pour générer des réponses JSON structurées. En savoir plus sur les sorties structurées.

Nom Type Descriptif Obligatoire Par défaut
descriptif ficelle Description de l'utilisation du format de réponse par le modèle pour
déterminer comment répondre selon le format.
Non
nom ficelle Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir
des traits de soulignement et tirets, avec une longueur maximale de 64.
Oui
schéma OpenAI.ResponseFormatJsonSchemaSchema Schéma du format de réponse, décrit en tant qu’objet de schéma JSON.
Découvrez comment créer des schémas JSON ici.
Oui
strict booléen ou null Non
type enum Type de format de réponse défini. A toujours la valeur json_schema.
Valeurs possibles : json_schema
Oui

OpenAI.ThreadObject

Représente un thread qui contient des messages.

Nom Type Descriptif Obligatoire Par défaut
date_de_création entier L'horodatage Unix (en secondes) de la création du thread. Oui
id ficelle Identificateur, qui peut être référencé dans les points de terminaison d’API. Oui
metadata OpenAI.Metadata ou null Oui
objet enum Le type d’objet, qui est toujours thread.
Valeurs possibles : thread
Oui
tool_resources OpenAI.ThreadObjectToolResources ou null Oui

OpenAI.ThreadObjectToolResources

Nom Type Descriptif Obligatoire Par défaut
code_interpreter OpenAI.ThreadObjectToolResourcesCodeInterpreter Non
file_search OpenAI.ThreadObjectToolResourcesFileSearch Non

OpenAI.ThreadObjectToolResourcesCodeInterpreter

Nom Type Descriptif Obligatoire Par défaut
identifiants_de_fichiers tableau de chaînes Non

OpenAI.ThreadObjectToolResourcesFileSearch

Nom Type Descriptif Obligatoire Par défaut
vector_store_ids tableau de chaînes Non

OpenAI.TokenLimits

Nom Type Descriptif Obligatoire Par défaut
post_instructions entier Contraintes : min : 0 Non

OpenAI.Tool

Outil qui peut être utilisé pour générer une réponse.

Discriminant pour OpenAI.Tool

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
code_interpreter OpenAI.CodeInterpreterTool
function OpenAI.FunctionTool
file_search OpenAI.FileSearchTool
computer_use_preview OpenAI.ComputerUsePreviewTool
web_search OpenAI.WebSearchTool
mcp OpenAI.MCPTool
image_generation OpenAI.ImageGenTool
local_shell OpenAI.LocalShellToolParam
shell OpenAI.FunctionShellToolParam
custom OpenAI.CustomToolParam
web_search_preview OpenAI.WebSearchPreviewTool
apply_patch OpenAI.ApplyPatchToolParam
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.ToolType Oui

OpenAI.ToolChoiceAllowed

Limite les outils disponibles pour le modèle à un ensemble prédéfini.

Nom Type Descriptif Obligatoire Par défaut
mode enum Limite les outils disponibles pour le modèle à un ensemble prédéfini.
auto permet au modèle de choisir parmi les outils autorisés et de générer un
.
required nécessite que le modèle appelle un ou plusieurs des outils autorisés.
Valeurs possibles : auto, required
Oui
outils tableau d’objet Liste des définitions d’outils que le modèle doit être autorisé à appeler.
Pour l’API Réponses, la liste des définitions d’outils peut ressembler à ceci :
json<br> [<br> { "type": "function", "name": "get_weather" },<br> { "type": "mcp", "server_label": "deepwiki" },<br> { "type": "image_generation" }<br> ]<br>
Oui
type enum Type de configuration d’outil autorisé. A toujours la valeur allowed_tools.
Valeurs possibles : allowed_tools
Oui

OpenAI.ToolChoiceCodeInterpreter

Indique que le modèle doit utiliser un outil intégré pour générer une réponse. En savoir plus sur les outils intégrés.

Nom Type Descriptif Obligatoire Par défaut
type enum
Valeurs possibles : code_interpreter
Oui

OpenAI.ToolChoiceComputerUsePreview

Indique que le modèle doit utiliser un outil intégré pour générer une réponse. En savoir plus sur les outils intégrés.

Nom Type Descriptif Obligatoire Par défaut
type enum
Valeurs possibles : computer_use_preview
Oui

OpenAI.ToolChoiceCustom

Utilisez cette option pour forcer le modèle à appeler un outil personnalisé spécifique.

Nom Type Descriptif Obligatoire Par défaut
nom ficelle Nom de l’outil personnalisé à appeler. Oui
type enum Pour les appels d’outils personnalisés, le type est toujours custom.
Valeurs possibles : custom
Oui

OpenAI.ToolChoiceFileSearch

Indique que le modèle doit utiliser un outil intégré pour générer une réponse. En savoir plus sur les outils intégrés.

Nom Type Descriptif Obligatoire Par défaut
type enum
Valeurs possibles : file_search
Oui

OpenAI.ToolChoiceFunction

Utilisez cette option pour forcer le modèle à appeler une fonction spécifique.

Nom Type Descriptif Obligatoire Par défaut
nom ficelle Nom de la fonction à appeler. Oui
type enum Pour l’appel de fonction, le type est toujours function.
Valeurs possibles : function
Oui

OpenAI.ToolChoiceImageGeneration

Indique que le modèle doit utiliser un outil intégré pour générer une réponse. En savoir plus sur les outils intégrés.

Nom Type Descriptif Obligatoire Par défaut
type enum
Valeurs possibles : image_generation
Oui

OpenAI.ToolChoiceMCP

Utilisez cette option pour forcer le modèle à appeler un outil spécifique sur un serveur MCP distant.

Nom Type Descriptif Obligatoire Par défaut
nom chaîne ou nulle Non
server_label ficelle Étiquette du serveur MCP à utiliser. Oui
type enum Pour les outils MCP, le type est toujours mcp.
Valeurs possibles : mcp
Oui

OpenAI.ToolChoiceOptions

Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère plutôt un message. auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils.

Propriété Valeur
Type ficelle
Valeurs none
auto
required

OpenAI.ToolChoiceParam

Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler.

Discriminateur pour OpenAI.ToolChoiceParam

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
allowed_tools OpenAI.ToolChoiceAllowed
mcp OpenAI.ToolChoiceMCP
custom OpenAI.ToolChoiceCustom
apply_patch OpenAI.SpecificApplyPatchParam
shell OpenAI.SpecificFunctionShellParam
file_search OpenAI.ToolChoiceFileSearch
web_search_preview OpenAI.ToolChoiceWebSearchPreview
computer_use_preview OpenAI.ToolChoiceComputerUsePreview
web_search_preview_2025_03_11 OpenAI.ToolChoiceWebSearchPreview20250311
image_generation OpenAI.ToolChoiceImageGeneration
code_interpreter OpenAI.ToolChoiceCodeInterpreter
Nom Type Descriptif Obligatoire Par défaut
type OpenAI.ToolChoiceParamType Oui

OpenAI.ToolChoiceParamType

Propriété Valeur
Type ficelle
Valeurs allowed_tools
function
mcp
custom
apply_patch
shell
file_search
web_search_preview
computer_use_preview
web_search_preview_2025_03_11
image_generation
code_interpreter

OpenAI.ToolChoiceWebSearchPreview

Remarque : web_search n’est pas encore disponible via Azure OpenAI.

Nom Type Descriptif Obligatoire Par défaut
type enum
Valeurs possibles : web_search_preview
Oui

OpenAI.ToolChoiceWebSearchPreview20250311

Indique que le modèle doit utiliser un outil intégré pour générer une réponse. En savoir plus sur les outils intégrés.

Nom Type Descriptif Obligatoire Par défaut
type enum
Valeurs possibles : web_search_preview_2025_03_11
Oui

OpenAI.ToolType

Propriété Valeur
Type ficelle
Valeurs function
file_search
computer_use_preview
web_search
mcp
code_interpreter
image_generation
local_shell
shell
custom
web_search_preview
apply_patch

OpenAI.ToolsArray

Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre. Nous prenons en charge les catégories d’outils suivantes :

  • Outils intégrés : Outils fournis par OpenAI qui étendent les capacités du modèle, comme ou fichier c2. En savoir plus sur outils intégrés.
  • Outils MCP : Intégrations à des systèmes tiers via des serveurs MCP personnalisés ou des connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur MCP Tools.
  • Appels de fonction (outils personnalisés) : fonctions définies par vous, permettant au modèle d’appeler votre propre code avec des arguments et des sorties fortement typés. En savoir plus sur l’appel de fonction. Vous pouvez également utiliser des outils personnalisés pour appeler votre propre code.

Tableau de : OpenAI.Tool

OpenAI.TopLogProb

Probabilité de journal supérieure d’un jeton.

Nom Type Descriptif Obligatoire Par défaut
octets tableau d’entiers Oui
logprob nombre Oui
token ficelle Oui

OpenAI.TranscriptionSegment

Nom Type Descriptif Obligatoire Par défaut
avg_logprob nombre Le logprob moyen pour le segment. Si la valeur est inférieure à -1, tenez compte de l’échec des logprobs. Oui
compression_ratio nombre Taux de compression du segment. Si la valeur est supérieure à 2,4, envisagez l’échec de la compression. Oui
fin nombre Heure de fin du segment en secondes. Oui
id entier Identificateur unique du segment. Oui
no_speech_prob nombre Probabilité d’absence de parole dans le segment. Si la valeur est supérieure à 1,0 et que la valeur avg_logprob est inférieure à -1, considérez ce segment comme silencieux. Oui
seek entier Le décalage recherché du segment. Oui
start nombre Heure de début du segment en secondes. Oui
température nombre Paramètre de température utilisé pour générer le segment. Oui
texte ficelle Contenu texte du segment. Oui
tokens tableau d’entiers Groupe d’ID de jetons pour le contenu textuel. Oui

OpenAI.TranscriptionWord

Nom Type Descriptif Obligatoire Par défaut
fin nombre Heure de fin du mot, exprimée en secondes. Oui
start nombre Heure de début du mot, exprimée en secondes. Oui
word ficelle Contenu texte du mot. Oui

OpenAI.TruncationObject

Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution.

Nom Type Descriptif Obligatoire Par défaut
last_messages entier ou null Non
type enum La stratégie de troncation à utiliser pour le thread. La valeur par défaut est auto. Si la valeur est définie sur last_messages, le thread est tronqué sur les n messages les plus récents dans le thread. Lorsque la valeur est définie sur auto, les messages au milieu du thread sont supprimés pour ajuster la longueur du contexte du modèle, max_prompt_tokens.
Valeurs possibles : auto, last_messages
Oui

OpenAI.Type

Une action pour saisir du texte.

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Texte à taper. Oui
type enum Spécifie le type d’événement. Pour une action de saisie textuelle, cette propriété est
toujours défini sur type.
Valeurs possibles : type
Oui

OpenAI.UpdateConversationBody

Nom Type Descriptif Obligatoire Par défaut
metadata OpenAI.Metadata ou null Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.
Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Oui

OpenAI.UpdateVectorStoreFileAttributesRequest

Nom Type Descriptif Obligatoire Par défaut
attributes OpenAI.VectorStoreFileAttributes ou null Oui

OpenAI.UpdateVectorStoreRequest

Nom Type Descriptif Obligatoire Par défaut
expire_après OpenAI.VectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. Non
metadata OpenAI.Metadata ou null Non
nom chaîne ou nulle Le nom du magasin de vecteurs. Non

OpenAI.UrlCitationBody

Citation d’une ressource web utilisée pour générer une réponse de modèle.

Nom Type Descriptif Obligatoire Par défaut
end_index entier Index du dernier caractère de la citation d’URL dans le message. Oui
start_index entier Index du premier caractère de la citation d’URL dans le message. Oui
title ficelle Titre de la ressource web. Oui
type enum Type de la citation d’URL. A toujours la valeur url_citation.
Valeurs possibles : url_citation
Oui
url ficelle URL de la ressource web. Oui

OpenAI.ValidateGraderResponse

Nom Type Descriptif Obligatoire Par défaut
outil de notation OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderPython ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint Classe utilisée pour le travail de réglage précis. Non

OpenAI.VectorStoreExpirationAfter

La stratégie d’expiration d’un magasin de vecteurs.

Nom Type Descriptif Obligatoire Par défaut
anchor enum Le timestamp d’ancre après lequel la stratégie d’expiration s’applique. Ancres prises en charge : last_active_at.
Valeurs possibles : last_active_at
Oui
Jours entier Le nombre de jours après l’heure d’ancre correspondant à l’expiration du magasin de vecteurs.
Contraintes : min : 1, max : 365
Oui

OpenAI.VectorStoreFileAttributes

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes de caractères d'une longueur maximale de 512 caractères, des booléens ou des nombres.

Type : objet

OpenAI.VectorStoreFileBatchObject

Un lot de fichiers attaché à un magasin de vecteurs.

Nom Type Descriptif Obligatoire Par défaut
date_de_création entier Le timestamp Unix (en secondes) lorsque le lot de fichiers de magasin de vecteurs a été créé. Oui
nombre_de_fichiers OpenAI.VectorStoreFileBatchObjectFileCounts Oui
id ficelle Identificateur, qui peut être référencé dans les points de terminaison d’API. Oui
objet enum Le type d’objet, qui est toujours vector_store.file_batch.
Valeurs possibles : vector_store.files_batch
Oui
status enum L’état du lot de fichiers de magasin de vecteurs, qui peut être in_progress, completed, cancelled ou failed.
Valeurs possibles : in_progress, , completedcancelled,failed
Oui
vector_store_id ficelle ID du magasin de vecteurs auquel le fichier est attaché. Oui

OpenAI.VectorStoreFileBatchObjectFileCounts

Nom Type Descriptif Obligatoire Par défaut
cancelled entier Oui
terminé entier Oui
a échoué entier Oui
in_progress entier Oui
total entier Oui

OpenAI.VectorStoreFileObject

Une liste de fichiers attachés à un magasin de vecteurs.

Nom Type Descriptif Obligatoire Par défaut
attributes OpenAI.VectorStoreFileAttributes ou null Non
chunking_strategy OpenAI.ChunkingStrategyResponse Stratégie utilisée pour segmenter le fichier. Non
date_de_création entier Le timestamp Unix (en secondes) lorsque le fichier de magasin de vecteurs a été créé. Oui
id ficelle Identificateur, qui peut être référencé dans les points de terminaison d’API. Oui
dernière_erreur OpenAI.VectorStoreFileObjectLastError ou null Oui
objet enum Le type d’objet, qui est toujours vector_store.file.
Valeurs possibles : vector_store.file
Oui
status enum L’état du fichier de magasin de vecteurs, qui peut être in_progress, completed, cancelled ou failed. L’état completed indique que le fichier de magasin de vecteurs est prêt à être utilisé.
Valeurs possibles : in_progress, , completedcancelled,failed
Oui
usage_bytes entier L’utilisation totale du magasin de vecteurs en octets. Notez qu’elle peut être différente de la taille du fichier d’origine. Oui
vector_store_id ficelle ID du magasin de vecteurs auquel le fichier est attaché. Oui

OpenAI.VectorStoreFileObjectLastError

Nom Type Descriptif Obligatoire Par défaut
code enum
Valeurs possibles : server_error, , unsupported_fileinvalid_file
Oui
message ficelle Oui

OpenAI.VectorStoreObject

Un magasin de vecteurs est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search.

Nom Type Descriptif Obligatoire Par défaut
date_de_création entier Le timestamp Unix (en secondes) lorsque le magasin de vecteurs a été créé. Oui
expire_après OpenAI.VectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. Non
expires_at chaîne ou nulle Non
nombre_de_fichiers OpenAI.VectorStoreObjectFileCounts Oui
id ficelle Identificateur, qui peut être référencé dans les points de terminaison d’API. Oui
date_dernière_activité chaîne ou nulle Oui
metadata OpenAI.Metadata ou null Oui
nom ficelle Le nom du magasin de vecteurs. Oui
objet enum Le type d’objet, qui est toujours vector_store.
Valeurs possibles : vector_store
Oui
status enum L’état du magasin de vecteurs, qui peut être expired, in_progress ou completed. L’état completed indique que le magasin de vecteurs est prêt à être utilisé.
Valeurs possibles : expired, , in_progresscompleted
Oui
usage_bytes entier Le nombre total d’octets utilisés par les fichiers dans le magasin de vecteurs. Oui

OpenAI.VectorStoreObjectFileCounts

Nom Type Descriptif Obligatoire Par défaut
cancelled entier Oui
terminé entier Oui
a échoué entier Oui
in_progress entier Oui
total entier Oui

OpenAI.VectorStoreSearchRequest

Nom Type Descriptif Obligatoire Par défaut
filters OpenAI.ComparisonFilter ou OpenAI.CompoundFilter Filtre à appliquer en fonction des attributs de fichier. Non
nombre_maximal_de_résultats entier Le nombre maximal de résultats à renvoyer. Ce nombre doit être compris entre 1 et 50 inclus.
Contraintes : min : 1, max : 50
Non 10
query chaîne ou tableau de chaînes Chaîne de requête pour une recherche Oui
options_de_classement OpenAI.VectorStoreSearchRequestRankingOptions Non
└─ classificateur enum
Valeurs possibles : none, , autodefault-2024-11-15
Non
└score_threshold nombre Contraintes : min : 0, max : 1 Non
rewrite_query booléen Indique s’il faut réécrire la requête en langage naturel pour la recherche vectorielle. Non

OpenAI.VectorStoreSearchRequestRankingOptions

Nom Type Descriptif Obligatoire Par défaut
ranker enum
Valeurs possibles : none, , autodefault-2024-11-15
Non
seuil de score nombre Contraintes : min : 0, max : 1 Non

OpenAI.VectorStoreSearchResultContentObject

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Contenu texte retourné par la recherche. Oui
type enum Type de contenu.
Valeurs possibles : text
Oui

OpenAI.VectorStoreSearchResultItem

Nom Type Descriptif Obligatoire Par défaut
attributes OpenAI.VectorStoreFileAttributes ou null Oui
contenu tableau d’OpenAI.VectorStoreSearchResultContentObject Blocs de contenu du fichier. Oui
identifiant_de_fichier ficelle ID du fichier de stockage de vecteurs. Oui
filename ficelle Nom du fichier de stockage de vecteurs. Oui
score nombre Score de similarité pour le résultat.
Contraintes : min : 0, max : 1
Oui

OpenAI.VectorStoreSearchResultsPage

Nom Type Descriptif Obligatoire Par défaut
données tableau d’OpenAI.VectorStoreSearchResultItem Liste des éléments de résultat de recherche. Oui
has_more booléen Indique s’il y a plus de résultats à extraire. Oui
next_page chaîne ou nulle Oui
objet enum Type d’objet, qui est toujours vector_store.search_results.page
Valeurs possibles : vector_store.search_results.page
Oui
search_query tableau de chaînes Oui

OpenAI.Verbosity

Contraint la verbosité de la réponse du modèle. Des valeurs plus basses entraîneront des réponses plus concises, tandis que des valeurs plus élevées donneront des réponses plus verbeuses. Les valeurs actuellement prises en charge sont low, medium et high.

Propriété Valeur
Type ficelle
Valeurs low
medium
high

OpenAI.VoiceIdsShared

Propriété Valeur
Type ficelle
Valeurs alloy
ash
ballad
coral
echo
sage
shimmer
verse
marin
cedar

OpenAI.Wait

Une action d'attente.

Nom Type Descriptif Obligatoire Par défaut
type enum Spécifie le type d’événement. Pour une action d’attente, cette propriété est
toujours défini sur wait.
Valeurs possibles : wait
Oui

OpenAI.WebSearchActionFind

Type d’action « find » : recherche un modèle dans une page chargée.

Nom Type Descriptif Obligatoire Par défaut
motif ficelle Modèle ou texte à rechercher dans la page. Oui
type enum Type d’action.
Valeurs possibles : find_in_page
Oui
url ficelle URL de la page recherchée pour le modèle. Oui

OpenAI.WebSearchActionOpenPage

Type d’action « open_page » : ouvre une URL spécifique à partir des résultats de la recherche.

Nom Type Descriptif Obligatoire Par défaut
type enum Type d’action.
Valeurs possibles : open_page
Oui
url ficelle URL ouverte par le modèle. Oui

OpenAI.WebSearchActionSearch

Type d’action « search » : effectue une requête de recherche web.

Nom Type Descriptif Obligatoire Par défaut
queries tableau de chaînes Requêtes de recherche. Non
query chaîne (déconseillée) [DÉCONSEILLÉ] Requête de recherche. Oui
Sources tableau d’OpenAI.WebSearchActionSearchSources Les sources utilisées dans la recherche. Non
type enum Type d’action.
Valeurs possibles : search
Oui

OpenAI.WebSearchActionSearchSources

Nom Type Descriptif Obligatoire Par défaut
type enum
Valeurs possibles : url
Oui
url ficelle Oui

OpenAI.WebSearchApproximateLocation

L’emplacement approximatif de l’utilisateur.

Nom Type Descriptif Obligatoire Par défaut
city chaîne ou nulle Non
country chaîne ou nulle Non
region chaîne ou nulle Non
timezone chaîne ou nulle Non
type enum Le type d’approximation de la localisation. A toujours la valeur approximate.
Valeurs possibles : approximate
Non

OpenAI.WebSearchPreviewTool

Remarque : web_search n’est pas encore disponible via Azure OpenAI.

Nom Type Descriptif Obligatoire Par défaut
taille_contexte_recherche OpenAI.SearchContextSize Non
type enum Type de l’outil de recherche web. Un de web_search_preview ou web_search_preview_2025_03_11.
Valeurs possibles : web_search_preview
Oui
emplacement_utilisateur OpenAI.ApproximateLocation ou null Non

OpenAI.WebSearchTool

Remarque : web_search n’est pas encore disponible via Azure OpenAI.

Nom Type Descriptif Obligatoire Par défaut
filters OpenAI.WebSearchToolFilters ou null Non
taille_contexte_recherche enum Conseils de haut niveau pour la quantité d’espace de fenêtre contextuelle à utiliser pour la recherche. Valeurs possibles : low, medium ou high. medium est la valeur par défaut.
Valeurs possibles : low, , mediumhigh
Non
type enum Type de l’outil de recherche web. Un de web_search ou web_search_2025_08_26.
Valeurs possibles : web_search
Oui
emplacement_utilisateur OpenAI.WebSearchApproximateLocation ou null Non

OpenAI.WebSearchToolFilters

Nom Type Descriptif Obligatoire Par défaut
allowed_domains tableau de chaînes ou null Non

Commande

Propriété Valeur
Type ficelle
Valeurs asc
desc

ResponseFormatJSONSchemaRequest

Nom Type Descriptif Obligatoire Par défaut
json_schema objet Schéma JSON pour le format de réponse Oui
type enum Type de format de réponse
Valeurs possibles : json_schema
Oui

SpeechGenerationResponse

Représentation d’une réponse pour une opération de synthèse vocale.

Nom Type Descriptif Obligatoire Par défaut
audio ficelle Audio généré, généré au format de sortie audio demandé. Oui

SpeechGenerationResponseFormat

Les formats de sortie audio pris en charge pour la synthèse texte-parole.

Ce composant peut être l’un des éléments suivants :

  • chaîne de caractères
  • chaîne : mp3, , opus, flacaac, wav,pcm

SpeechVoice

Voix disponibles pour la synthèse vocale.

Propriété Valeur
Description Voix disponibles pour la synthèse vocale.
Type ficelle
Valeurs alloy
echo
fable
onyx
nova
shimmer

VideoContent

Nom Type Descriptif Obligatoire Par défaut
contenu ficelle Oui

VideoContentVariant

Variantes de ressources sélectionnables pour le contenu téléchargé.

Propriété Valeur
Description Variantes de ressources sélectionnables pour le contenu téléchargé.
Type ficelle
Valeurs video
thumbnail
spritesheet

VideoIdParameter

Nom Type Descriptif Obligatoire Par défaut
video-id ficelle ID de la vidéo à utiliser pour la requête Azure OpenAI. Oui

VideoList

Liste des travaux de génération vidéo.

Nom Type Descriptif Obligatoire Par défaut
données tableau de VideoResource Liste des travaux de génération vidéo. Oui
premier_identifiant ficelle ID de la première vidéo de la page active, le cas échéant. Non
has_more booléen Indicateur indiquant s’il existe davantage de travaux disponibles après la liste. Oui
last_id ficelle ID de la dernière vidéo dans la page active, le cas échéant. Non
objet enum
Valeurs possibles : list
Oui

VideoResource

Informations structurées décrivant un travail vidéo généré.

Nom Type Descriptif Obligatoire Par défaut
terminé_à entier Horodatage Unix (secondes) pour le moment où le travail s’est terminé, s’il est terminé. Non
date_de_création entier Horodatage Unix (secondes) pour la création du travail. Oui
erreur Error Non
└─ Code ficelle Oui
└─ Message ficelle Oui
expires_at entier Horodatage Unix (secondes) pour l’expiration de la génération de vidéo (et sera supprimé). Non
id ficelle Identificateur unique du travail vidéo. Oui
modèle ficelle Déploiement du modèle de génération vidéo qui a produit le travail. Oui
objet ficelle Le type d’objet, qui est toujours video. Oui
progrès entier Pourcentage d’achèvement approximatif pour la tâche de génération. Oui
remixed_from_video_id ficelle Identificateur de la vidéo source si cette vidéo est un remix. Non
secondes VideoSeconds Durées de clip prises en charge, mesurées en secondes. Oui
taille VideoSize Dimensions de sortie mises en forme en tant que {width}x{height}. Oui
status VideoStatus État du cycle de vie d’une vidéo générée. Oui

VideoSeconds

Durées de clip prises en charge, mesurées en secondes.

Propriété Valeur
Description Durées de clip prises en charge, mesurées en secondes.
Type ficelle
Valeurs 4
8
12

VideoSize

Dimensions de sortie mises en forme en tant que {width}x{height}.

Propriété Valeur
Description Dimensions de sortie mises en forme en tant que {width}x{height}.
Type ficelle
Valeurs 720x1280
1280x720
1024x1792
1792x1024

VideoStatus

État du cycle de vie d’une vidéo générée.

Propriété Valeur
Description État du cycle de vie d’une vidéo générée.
Type ficelle
Valeurs queued
in_progress
completed
failed