Remarque
L’accès à cette page requiert une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page requiert une autorisation. Vous pouvez essayer de modifier des répertoires.
Version de l’API : v1
Variables serveur :
| Variable | Par défaut | Descriptif |
|---|---|---|
| endpoint | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
Authentification
Clé API
Transmettez une clé API avec l’en-tête api-key .
Jetons d’authentification
Transmettez un jeton d’authentification avec l’en-tête authorization .
Oauth2authoauth20
Flux : implicite
URL d’autorisation :https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Étendues:
https://ai.azure.com/.default
Batch
Créer un lot
POST {endpoint}/openai/v1/batches
Crée et exécute un lot à partir d’un fichier chargé de requêtes
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
En-tête de requête
| Nom | Obligatoire | Type | Descriptif |
|---|---|---|---|
| accepter | Vrai | ficelle Valeurs possibles : application/json |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| fenêtre de finalisation | enum | Le délai d’exécution pendant lequel le lot doit être traité. Actuellement, seul 24h est pris en charge.Valeurs possibles : 24h |
Oui | |
| endpoint | enum | Point de terminaison à utiliser pour toutes les requêtes du lot. Actuellement /v1/chat/completions , il est pris en charge.Valeurs possibles : /v1/chat/completions, /v1/embeddings |
Oui | |
| input_file_id | ficelle | ID d’un fichier chargé qui contient des demandes pour le nouveau lot. Votre fichier d’entrée doit être mis en forme en tant que fichier JSON, et doit être chargé avec l’objectif batch. |
Non |
Responses
Code d’état : 201
Description : la demande a réussi et une nouvelle ressource a été créée par conséquent.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Répertorier les lots
GET {endpoint}/openai/v1/batches
Répertoriez les lots de votre organisation.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| after | query | Non | ficelle | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre Un appel ultérieur peut inclure after=obj_foo afin de récupérer la page suivante de la liste. |
| limit | query | Non | entier | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
En-tête de requête
| Nom | Obligatoire | Type | Descriptif |
|---|---|---|---|
| accepter | Vrai | ficelle Valeurs possibles : application/json |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ListBatchesResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Récupérer le lot
GET {endpoint}/openai/v1/batches/{batch_id}
Récupère un lot.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| batch_id | chemin | Oui | ficelle | ID du lot à récupérer. |
En-tête de requête
| Nom | Obligatoire | Type | Descriptif |
|---|---|---|---|
| accepter | Vrai | ficelle Valeurs possibles : application/json |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Annuler le traitement par lots
POST {endpoint}/openai/v1/batches/{batch_id}/cancel
Annule un traitement par lots en cours.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| batch_id | chemin | Oui | ficelle | ID du lot à annuler. |
En-tête de requête
| Nom | Obligatoire | Type | Descriptif |
|---|---|---|---|
| accepter | Vrai | ficelle Valeurs possibles : application/json |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Chat
Créer une saisie semi-automatique de conversation
POST {endpoint}/openai/v1/chat/completions
Crée une saisie semi-automatique de conversation.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| audio | OpenAI.CreateChatCompletionRequestAudio ou null | Paramètres de sortie audio. Obligatoire lorsque la sortie audio est demandée avecmodalities: ["audio"]. |
Non | |
| frequency_penalty | nombre ou null | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, réduisant probabilité de répéter la même ligne verbatim. |
Non | |
| function_call | string ou OpenAI.ChatCompletionFunctionCallOption | Déconseillé en faveur de tool_choice.Contrôle la fonction (le cas échéant) appelée par le modèle. none signifie que le modèle n’appelle pas une fonction et génère à la place un. auto signifie que le modèle peut choisir entre générer un message ou appeler unfonction. Spécification d’une fonction particulière par le biais {"name": "my_function"} de forcesmodèle à appeler cette fonction. none est la valeur par défaut lorsqu’aucune fonction n’est présente.
auto est la valeur par défautsi des fonctions sont présentes. |
Non | |
| functions | tableau d’OpenAI.ChatCompletionFunctions | Déconseillé en faveur de tools.Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. |
Non | |
| logit_bias | objet ou null | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe les jetons (spécifié par leur ID de jeton dans le générateur de jetons) à une valeur de biais associée de -100 à 100. Mathématiquement le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; valeurs telles que -100 ou 100 devrait entraîner une interdiction ou une sélection exclusive du jeton relatif. |
Non | |
| logprobs | booléen ou null | Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si c'est vrai, renvoie les probabilités logarithmiques de chaque jeton de sortie renvoyé dans content de message. |
Non | |
| max_completion_tokens | entier ou null | Une limite supérieure pour le nombre de jetons pouvant être générés pour un achèvement, y compris les jetons de sortie visibles et les jetons de raisonnement. |
Non | |
| nombre_maximal_de_tokens | entier ou null | Nombre maximal de jetons pouvant être générés dans la complétion de conversation. Cette valeur peut être utilisée pour contrôler les coûts du texte généré via l’API. Cette valeur est désormais déconseillée en faveur de max_completion_tokens, et estnon compatible avec les modèles de série o1. |
Non | |
| messages | tableau d’OpenAI.ChatCompletionRequestMessage | Liste des messages comprenant la conversation jusqu’ici. En fonction de modèle que vous utilisez, différents types de messages (modalités) sont pris en charge, comme le texte, les images et l’audio. |
Oui | |
| metadata | OpenAI.Metadata ou null | Non | ||
| modalités | OpenAI.ResponseModalities | Types de sortie que vous souhaitez générer le modèle. La plupart des modèles sont capables de générer du texte, ce qui est l’action par défaut : ["text"]Le gpt-4o-audio-preview modèle peut également être utilisé pourgénérer de l’audio. Pour demander que génère ce modèle Vous pouvez utiliser à la fois des réponses textuelles et audio : ["text", "audio"] |
Non | |
| modèle | ficelle | ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAIoffre un large éventail de modèles avec différentes fonctionnalités, performances caractéristiques et points de prix. Reportez-vous au guide du modèle pour parcourir et comparer les modèles disponibles. |
Oui | |
| n | entier ou null | Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés dans tous les choix. Gardez n défini sur 1 pour minimiser les coûts. |
Non | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | Non | |
| prediction | OpenAI.PredictionContent | Contenu de sortie prédit statique, tel que le contenu d’un fichier texte qui est être régénéré. |
Non | |
| └─ Contenu | chaîne ou tableau d’OpenAI.ChatCompletionRequestMessageContentPartText | Le contenu qui doit être mis en correspondance lors de la génération d’une réponse de modèle. Si les jetons générés correspondent à ce contenu, la réponse entière du modèle peut être retourné beaucoup plus rapidement. |
Oui | |
| └─ Type | enum | Le type de contenu prédit que vous souhaitez fournir. Ce type est actuellement toujours content.Valeurs possibles : content |
Oui | |
| pénalité_de_presence | nombre ou null | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de s’ils apparaissent ou non dans le texte jusqu’à présent, augmentant ainsi la probabilité du modèle pour parler de nouveaux sujets. |
Non | |
| prompt_cache_key | ficelle | Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ.
En savoir plus. |
Non | |
| prompt_cache_retention | chaîne ou nulle | Non | ||
| effort de raisonnement | OpenAI.ReasoningEffort | Limite l’effort sur le raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduirel’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés le raisonnement dans une réponse. - gpt-5.1
nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max. |
Non | |
| format_de_réponse | OpenAI.CreateChatCompletionRequestResponseFormat | Objet spécifiant le format que le modèle doit générer. Paramètre permettant d’activer { "type": "json_schema", "json_schema": {...} }Sorties structurées qui garantissent que le modèle correspond à votre JSON fourni Schéma. En savoir plus dans les sorties structurées guide. Activer { "type": "json_object" } permet de passer au mode JSON plus ancien, quigarantit que le message généré par le modèle est json valide. Utilisation de json_schemaLa solution est préférée pour les modèles qui la prennent en charge. |
Non | |
| └─ Type | OpenAI.CreateChatCompletionRequestResponseFormatType | Oui | ||
| safety_identifier | ficelle | Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI. Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus. |
Non | |
| seed | entier ou null | Cette fonctionnalité est en version bêta. S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.Le déterminisme n’est pas garanti, c’est pourquoi vous devriez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. |
Non | |
| arrêter | OpenAI.StopConfiguration | Non pris en charge par les derniers modèles de raisonnement o3 et o4-mini.Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons. Les le texte retourné ne contient pas la séquence d’arrêt. |
Non | |
| store | booléen ou null | Indique s'il faut stocker ou non le résultat de cette demande de complétion de chat utilisation dans la distillation de modèles ou les produits d’évaluation. |
Non | |
| ruisseau | booléen ou null | Si la valeur est true, les données de réponse du modèle sont diffusées en continu vers le client tel qu’il est généré à l’aide d’événements envoyés par le serveur. |
Non | |
| stream_options | OpenAI.ChatCompletionStreamOptions ou null | Non | ||
| température | nombre ou null | Non | ||
| tool_choice | OpenAI.ChatCompletionToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils.La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.none est la valeur par défaut lorsqu’aucun outil n’est présent.
auto est la valeur par défaut si des outils sont présents. |
Non | |
| outils | tableau d’OpenAI.ChatCompletionTool ou OpenAI.CustomToolChatCompletions | Liste d’outils que le modèle peut appeler. Vous pouvez fournir l’une ou l’autre outils personnalisés ou outils de fonction. |
Non | |
| top_logprobs | entier ou null | Non | ||
| top_p | nombre ou null | Non | ||
| utilisateur | chaîne (déconseillée) | Identificateur unique représentant votre utilisateur final, qui peut vous aider à surveiller et détecter les abus. |
Non | |
| user_security_context | AzureUserSecurityContext | Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application elle-même et l’utilisateur final qui interagit avec l’application. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Learn plus sur la protection des applications IA à l’aide de Microsoft Defender for Cloud. | Non | |
| verbosité | OpenAI.Verbosity | Contraint la verbosité de la réponse du modèle. Les valeurs inférieures entraînent des réponses plus concises, tandis que des valeurs plus élevées entraînent des réponses plus détaillées. Les valeurs actuellement prises en charge sont low, medium et high. |
Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet ou objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Exemples
Example
POST {endpoint}/openai/v1/chat/completions
Autocomplétions
Créer une saisie semi-automatique
POST {endpoint}/openai/v1/completions
Crée une saisie semi-automatique.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| best_of | entier ou null | Génère des complétions best_of côté serveur et retourne la « meilleure » (celle avec la probabilité logarithmique la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.Lorsqu’il est utilisé avec n, best_of contrôle le nombre d’achèvements de candidats et n spécifie le nombre à retourner : best_of doit être supérieur nà .Remarque :* Étant donné que ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop. |
Non | |
| echo | booléen ou null | Renvoyer l’invite en plus de l’achèvement | Non | |
| frequency_penalty | nombre ou null | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. Consultez plus d’informations sur les pénalités de fréquence et de présence. |
Non | |
| logit_bias | objet ou null | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le générateur de jetons GPT) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du jeton <|endoftext|>. |
Non | |
| logprobs | entier ou null | Inclut les probabilités logarithmiques sur les jetons de sortie logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est égal à 5, l’API retourne une liste des 5 jetons les plus probables. L’API retournant toujours le logprob du jeton échantillonné, il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse.La valeur maximale de logprobs est 5. |
Non | |
| nombre_maximal_de_tokens | entier ou null | Nombre maximal de jetons pouvant être générés dans la complétion. Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle.
Exemple de code Python pour le comptage de jetons. |
Non | |
| modèle | ficelle | ID du modèle à utiliser. Vous pouvez utiliser l’API Des modèles de liste pour afficher tous vos modèles disponibles ou voir notre vue d’ensemble du modèle pour obtenir des descriptions. | Oui | |
| n | entier ou null | Nombre d’achèvements à générer pour chaque invite. Remarque :* Étant donné que ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop. |
Non | |
| pénalité_de_presence | nombre ou null | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. Consultez plus d’informations sur les pénalités de fréquence et de présence. |
Non | |
| prompt | chaîne ou tableau de chaîne ou null | Non | ||
| seed | entier ou null | S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.Le déterminisme n’est pas garanti, c’est pourquoi vous devriez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. |
Non | |
| arrêter | OpenAI.StopConfiguration | Non pris en charge par les derniers modèles de raisonnement o3 et o4-mini.Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons. Les le texte retourné ne contient pas la séquence d’arrêt. |
Non | |
| ruisseau | booléen ou null | Indique s’il faut renvoyer la progression partielle. S’ils sont définis, les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE]. code Example Python. |
Non | |
| stream_options | OpenAI.ChatCompletionStreamOptions ou null | Non | ||
| suffixe | chaîne ou nulle | Suffixe qui vient après l’achèvement d’un texte inséré. Ce paramètre est uniquement pris en charge pour gpt-3.5-turbo-instruct. |
Non | |
| température | nombre ou null | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
Non | |
| top_p | nombre ou null | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
Non | |
| utilisateur | ficelle | En savoir plus. | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Exemples
Example
POST {endpoint}/openai/v1/completions
Conteneurs
Répertorier les conteneurs
GET {endpoint}/openai/v1/containers
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| limit | query | Non | entier | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | Non | ficelle Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant etdescdans l’ordre décroissant. |
| after | query | Non | ficelle | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre Un appel ultérieur peut inclure after=obj_foo afin de récupérer la page suivante de la liste. |
| before | query | Non | ficelle | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre l'appel suivant peut inclure before=obj_foo afin de récupérer la page précédente de la liste. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ContainerListResource |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer un conteneur
POST {endpoint}/openai/v1/containers
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| expire_après | OpenAI.CreateContainerBodyExpiresAfter | Non | ||
| └─ Ancre | enum | Valeurs possibles : last_active_at |
Oui | |
| └' minutes | entier | Oui | ||
| identifiants_de_fichiers | tableau de chaînes | ID de fichiers à copier dans le conteneur. | Non | |
| limite_de_mémoire | enum | Limite de mémoire facultative pour le conteneur. La valeur par défaut est 1g.Valeurs possibles : 1g, , 4g16g,64g |
Non | |
| nom | ficelle | Nom du conteneur à créer. | Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ContainerResource |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Récupérer un conteneur
GET {endpoint}/openai/v1/containers/{container_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| container_id | chemin | Oui | ficelle | ID du conteneur à récupérer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ContainerResource |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Supprimer le conteneur
DELETE {endpoint}/openai/v1/containers/{container_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| container_id | chemin | Oui | ficelle | ID du conteneur à supprimer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Répertorier les fichiers conteneur
GET {endpoint}/openai/v1/containers/{container_id}/files
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| container_id | chemin | Oui | ficelle | ID du conteneur à partir duquel répertorier les fichiers. |
| limit | query | Non | entier | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | Non | ficelle Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant etdescdans l’ordre décroissant. |
| after | query | Non | ficelle | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre Un appel ultérieur peut inclure after=obj_foo afin de récupérer la page suivante de la liste. |
| before | query | Non | ficelle | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre l'appel suivant peut inclure before=obj_foo afin de récupérer la page précédente de la liste. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ContainerFileListResource |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer un fichier conteneur
POST {endpoint}/openai/v1/containers/{container_id}/files
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| container_id | chemin | Oui | ficelle | ID du conteneur dans lequel créer un fichier. |
Corps de la requête
Content-Type : multipart/form-data
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| fichier | Objet File (et non nom de fichier) à charger. | Non | ||
| identifiant_de_fichier | ficelle | Nom du fichier à créer. | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ContainerFileResource |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Récupérer le fichier conteneur
GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| container_id | chemin | Oui | ficelle | ID du conteneur. |
| identifiant_de_fichier | chemin | Oui | ficelle | ID du fichier à récupérer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ContainerFileResource |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Supprimer un fichier conteneur
DELETE {endpoint}/openai/v1/containers/{container_id}/files/{file_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| container_id | chemin | Oui | ficelle | ID du conteneur. |
| identifiant_de_fichier | chemin | Oui | ficelle | ID du fichier à supprimer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Récupérer le contenu du fichier conteneur
GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}/content
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| container_id | chemin | Oui | ficelle | ID du conteneur. |
| identifiant_de_fichier | chemin | Oui | ficelle | ID du fichier à partir duquel récupérer du contenu. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/octet-stream | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Conversations
Créer une conversation
POST {endpoint}/openai/v1/conversations
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Éléments | tableau d’OpenAI.InputItem ou null | Non | ||
| metadata | OpenAI.Metadata ou null | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ConversationResource |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Récupérer une conversation
GET {endpoint}/openai/v1/conversations/{conversation_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| conversation_id | chemin | Oui | ficelle | ID de la conversation à récupérer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ConversationResource |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Mettre à jour la conversation
POST {endpoint}/openai/v1/conversations/{conversation_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| conversation_id | chemin | Oui | ficelle | ID de la conversation à mettre à jour. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| metadata | OpenAI.Metadata ou null | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ConversationResource |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Supprimer une conversation
DELETE {endpoint}/openai/v1/conversations/{conversation_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| conversation_id | chemin | Oui | ficelle | ID de la conversation à supprimer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.DeletedConversationResource |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Répertorier les éléments de conversation
GET {endpoint}/openai/v1/conversations/{conversation_id}/items
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| conversation_id | chemin | Oui | ficelle | ID de la conversation pour laquelle répertorier les éléments. |
| limit | query | Non | entier | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | Non | ficelle Valeurs possibles : asc, desc |
Ordre dans lequel les éléments d'entrée doivent être retournés. La valeur par défaut est desc. |
| after | query | Non | ficelle | ID d’élément utilisé pour répertorier les éléments suivants, dans le cadre de la pagination. |
| inclure | query | Non | tableau | Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ConversationItemList |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer des éléments de conversation
POST {endpoint}/openai/v1/conversations/{conversation_id}/items
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| conversation_id | chemin | Oui | ficelle | ID de la conversation à laquelle ajouter l’élément. |
| inclure | query | Non | tableau | Champs supplémentaires à inclure dans la réponse. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Éléments | tableau d’OpenAI.InputItem | Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ConversationItemList |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Récupérer l’élément de conversation
GET {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| conversation_id | chemin | Oui | ficelle | ID de la conversation qui contient l’élément. |
| item_id | chemin | Oui | ficelle | ID de l’élément à récupérer. |
| inclure | query | Non | tableau | Champs supplémentaires à inclure dans la réponse. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ConversationItem |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Supprimer l’élément de conversation
DELETE {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| conversation_id | chemin | Oui | ficelle | ID de la conversation qui contient l’élément. |
| item_id | chemin | Oui | ficelle | ID de l’élément à supprimer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ConversationResource |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Evals
Répertorier les valeurs d’évaluation
GET {endpoint}/openai/v1/evals
Répertorier les évaluations d’un projet.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| after | query | Non | ficelle | Identificateur de la dernière évaluation de la demande de pagination précédente. |
| limit | query | Non | entier | Limite du nombre d’évaluations à retourner dans une seule réponse de pagination. |
| order | query | Non | ficelle Valeurs possibles : asc, desc |
Ordre de tri pour les évaluations par horodatage. Utiliser asc pour l’ordre croissant oudesc pour l’ordre décroissant. |
| ordonner_par | query | Non | ficelle Valeurs possibles : created_at, updated_at |
Les evals peuvent être triés par heure de création ou heure de dernière mise à jour. Utilisationcreated_at pour l’heure de création ou updated_at pour la dernière mise à jourmoment. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalList |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer une évaluation
POST {endpoint}/openai/v1/evals
Créez la structure d’une évaluation qui peut être utilisée pour tester les performances d’un modèle.
Une évaluation est un ensemble de critères de test et d’une source de données. Après avoir créé une évaluation, vous pouvez l’exécuter sur différents modèles et paramètres de modèle. Nous prenons en charge plusieurs types de nuanceurs et de sources de données.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| data_source_config | OpenAI.CreateEvalCustomDataSourceConfig ou OpenAI.CreateEvalLogsDataSourceConfig ou OpenAI.CreateEvalStoredCompletionsDataSourceConfig | Configuration de la source de données utilisée pour les exécutions d’évaluation. Dicte le schéma des données utilisées dans l’évaluation. | Oui | |
| metadata | OpenAI.Metadata ou null | Non | ||
| nom | ficelle | Le nom de l’évaluation. | Non | |
| statusCode | enum | Valeurs possibles : 201 |
Oui | |
| critères_de_test | tableau d’OpenAI.CreateEvalLabelModelGrader ou OpenAI.EvalGraderStringCheck ou OpenAI.EvalGraderTextSimilarity ou OpenAI.EvalGraderPython ou OpenAI.EvalGraderScoreModel ou EvalGraderEndpoint | Liste des correcteurs de toutes les exécutions d’évaluation dans ce groupe. Les outils de notation peuvent référencer des variables dans la source de données à l’aide d’accolades doubles, comme {{item.variable_name}}. Pour référencer la sortie du modèle, utilisez l’espace de noms sample (par exemple, {{sample.output_text}}). |
Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Obtenir une évaluation
GET {endpoint}/openai/v1/evals/{eval_id}
Récupérez une évaluation par son ID. Récupère une évaluation par son ID.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| eval_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Mettre à jour une évaluation
POST {endpoint}/openai/v1/evals/{eval_id}
Mettez à jour les propriétés mutables d’une évaluation spécifiée.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| eval_id | chemin | Oui | ficelle |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| metadata | OpenAI.Metadata | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Il peut s’agir de utile pour stocker des informations supplémentaires sur l’objet dans une structure formater et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes avec une longueur maximale de 512 caractères. |
Non | |
| nom | ficelle | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Supprimer une évaluation
DELETE {endpoint}/openai/v1/evals/{eval_id}
Supprimez une évaluation spécifiée.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| eval_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Obtenir des exécutions d’évaluation
GET {endpoint}/openai/v1/evals/{eval_id}/runs
Récupérez une liste d’exécutions pour une évaluation spécifiée.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| eval_id | chemin | Oui | ficelle | |
| after | query | Non | ficelle | |
| limit | query | Non | entier | |
| order | query | Non | ficelle Valeurs possibles : asc, desc |
|
| status | query | Non | ficelle Valeurs possibles : queued, , in_progresscompleted, canceled,failed |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunList |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer une exécution d’évaluation
POST {endpoint}/openai/v1/evals/{eval_id}/runs
Créez une nouvelle exécution d’évaluation, en commençant le processus de notation.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| eval_id | chemin | Oui | ficelle |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| source de données | OpenAI.CreateEvalJsonlRunDataSource ou OpenAI.CreateEvalCompletionsRunDataSource ou OpenAI.CreateEvalResponsesRunDataSource | Détails sur la source de données de l’exécution. | Oui | |
| metadata | OpenAI.Metadata ou null | Non | ||
| nom | ficelle | Nom de l’exécution. | Non |
Responses
Code d’état : 201
Description : la demande a réussi et une nouvelle ressource a été créée par conséquent.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Obtenir l’exécution d’une évaluation
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Récupérez l’exécution d’une évaluation spécifique avec son ID.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| eval_id | chemin | Oui | ficelle | |
| run_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Annuler l’exécution d’une évaluation
POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Annulez l’exécution d’une évaluation spécifique avec son ID.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| eval_id | chemin | Oui | ficelle | |
| run_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Supprimer une exécution d’évaluation
DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Supprimez l’exécution d’une évaluation spécifique avec son ID.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| eval_id | chemin | Oui | ficelle | |
| run_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Obtenir les éléments de sortie de l’exécution d’une évaluation
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items
Obtenir la liste des éléments de sortie de l’exécution d’une évaluation spécifiée.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| eval_id | chemin | Oui | ficelle | |
| run_id | chemin | Oui | ficelle | |
| after | query | Non | ficelle | |
| limit | query | Non | entier | |
| status | query | Non | ficelle Valeurs possibles : fail, pass |
|
| order | query | Non | ficelle Valeurs possibles : asc, desc |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunOutputItemList |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Obtenir l’élément de sortie de l’exécution d’une évaluation
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}
Récupérez un élément de sortie spécifique à partir de l’exécution d’une évaluation avec son ID.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| eval_id | chemin | Oui | ficelle | |
| run_id | chemin | Oui | ficelle | |
| output_item_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunOutputItem |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Fichiers
Créer un fichier
POST {endpoint}/openai/v1/files
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : multipart/form-data
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| expire_après | objet | Oui | ||
| └─ Ancre | AzureFileExpiryAnchor | Oui | ||
| └ secondes | entier | Oui | ||
| fichier | Objet File (et non nom de fichier) à charger. | Oui | ||
| objectif | enum | L’objectif visé du fichier téléchargé. L’un des : – assistants : Utilisé dans l’API Assistants –batch : Utilisé dans l’API Batch – fine-tune : Utilisé pour l’ajustement – evals : Utilisé pour les jeux de données d’évaluationValeurs possibles : assistants, , batchfine-tune,evals |
Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Exemples
Example
POST {endpoint}/openai/v1/files
Lister les fichiers
GET {endpoint}/openai/v1/files
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| objectif | query | Non | ficelle | |
| limit | query | Non | entier | |
| order | query | Non | ficelle Valeurs possibles : asc, desc |
|
| after | query | Non | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ListFilesResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Récupérer le fichier
GET {endpoint}/openai/v1/files/{file_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| identifiant_de_fichier | chemin | Oui | ficelle | ID du fichier à utiliser pour cette requête. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Supprimer un fichier
DELETE {endpoint}/openai/v1/files/{file_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| identifiant_de_fichier | chemin | Oui | ficelle | ID du fichier à utiliser pour cette requête. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteFileResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Télécharger le fichier
GET {endpoint}/openai/v1/files/{file_id}/content
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| identifiant_de_fichier | chemin | Oui | ficelle | ID du fichier à utiliser pour cette requête. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/octet-stream | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Embeddings
Créer une intégration
POST {endpoint}/openai/v1/embeddings
Crée un vecteur d’incorporation représentant le texte d’entrée.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| dimensions | entier | Nombre de dimensions que les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs.Contraintes : min : 1 |
Non | |
| encoding_format | enum | Format dans lequel retourner les incorporations. La valeur peut être float ou base64.Valeurs possibles : float, base64 |
Non | |
| entrée | chaîne ou tableau de chaîne ou tableau d’entiers ou de tableaux de tableau | Texte d’entrée à incorporer, encodé en tant que chaîne ou tableau de jetons. Pour incorporer plusieurs entrées dans une seule requête, transmettez un tableau de chaînes ou de tableaux de jetons. L’entrée ne doit pas dépasser les jetons d’entrée max pour le modèle (8 192 jetons pour tous les modèles d’incorporation), ne peut pas être une chaîne vide, et tout tableau doit être de 2 048 dimensions ou moins. Exemple de code Python pour le comptage de jetons. Outre la limite de jetons par entrée, tous les modèles d’incorporation appliquent un maximum de 300 000 jetons additionnés sur toutes les entrées dans une seule requête. | Oui | |
| modèle | ficelle | ID du modèle à utiliser. Vous pouvez utiliser l’API Des modèles de liste pour afficher tous vos modèles disponibles ou voir notre vue d’ensemble du modèle pour obtenir des descriptions. | Oui | |
| utilisateur | ficelle | En savoir plus. | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.CreateEmbeddingResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Exemples
Example
POST {endpoint}/openai/v1/embeddings
Fine-tuning
Exécuter un outil de notation
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run
Exécutez un outil de notation.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| outil de notation | OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderPython ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint | Classe utilisée pour le travail de réglage précis. | Oui | |
| item | OpenAI.RunGraderRequestItem | Non | ||
| model_sample | ficelle | Exemple de modèle à évaluer. Cette valeur sera utilisée pour remplir l’espace de noms sample. Pour plus d’informations, consultez le guide.La variable output_json est remplie si l’exemple de modèle est unechaîne JSON valide. |
Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.RunGraderResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Valider l’outil de notation
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate
Validez un outil de notation.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| outil de notation | OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderPython ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ValidateGraderResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Répertorier les autorisations de point de contrôle de réglage précis
GET {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions
Répertorier les autorisations de point de contrôle
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| fine_tuned_model_checkpoint | chemin | Oui | ficelle | ID du point de contrôle de modèle affiné pour lequel obtenir des autorisations. |
| project_id | query | Non | ficelle | ID du projet pour lequel obtenir des autorisations. |
| after | query | Non | ficelle | Identificateur pour le dernier ID d’autorisation de la demande de pagination précédente. |
| limit | query | Non | entier | Nombre d’autorisations à récupérer. |
| order | query | Non | ficelle Valeurs possibles : ascending, descending |
Ordre dans lequel récupérer des autorisations. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ListFineTuningCheckpointPermissionResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer une autorisation de point de contrôle de réglage précis
POST {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions
Créer des autorisations de point de contrôle
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| fine_tuned_model_checkpoint | chemin | Oui | ficelle | ID du point de contrôle de modèle affiné pour lequel créer une autorisation. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| project_ids | tableau de chaînes | Identificateurs de projet auxquels accorder l’accès. | Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ListFineTuningCheckpointPermissionResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Supprimer l’autorisation de point de contrôle de réglage précis
DELETE {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions/{permission_id}
Supprimer l’autorisation de point de contrôle
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| fine_tuned_model_checkpoint | chemin | Oui | ficelle | ID du point de contrôle de modèle affiné pour lequel supprimer une autorisation. |
| permission_id | chemin | Oui | ficelle | ID de l’autorisation de point de contrôle de modèle affinée à supprimer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteFineTuningCheckpointPermissionResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer un travail de réglage précis
POST {endpoint}/openai/v1/fine_tuning/jobs
Crée un travail d’ajustement qui commence le processus de création d’un modèle à partir d’un jeu de données donné.
La réponse inclut les détails du travail mis en file d’attente, y compris l’état du travail et le nom des modèles affinés une fois la tâche terminée.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| hyperparameters | OpenAI.CreateFineTuningJobRequestHyperparameters | Non | ||
| └ taille_du_lot | chaîne ou entier | Non | auto | |
| ─ learning_rate_multiplier | chaîne ou nombre | Non | ||
| └n_epochs | chaîne ou entier | Non | auto | |
| Intégrations | tableau d’OpenAI.CreateFineTuningJobRequestIntegrations ou null | Liste des intégrations à activer pour votre travail d’ajustement. | Non | |
| metadata | OpenAI.Metadata ou null | Non | ||
| method | OpenAI.FineTuneMethod | Méthode utilisée pour l’ajustement. | Non | |
| modèle | chaîne (voir les modèles valides ci-dessous) | Nom du modèle à ajuster. Vous pouvez sélectionner l’un des |
Oui | |
| seed | entier ou null | La graine contrôle la reproductibilité du travail. La transmission de la même graine et des mêmes paramètres de travail doit produire les mêmes résultats, mais peut différer dans de rares cas. Si une graine n’est pas spécifiée, une graine est générée pour vous. |
Non | |
| suffixe | chaîne ou nulle | Chaîne de jusqu’à 64 caractères qui seront ajoutés au nom de votre modèle affiné. Par exemple, un suffix « custom-model-name » produit un nom de modèle comme ft:gpt-4o-mini:openai:custom-model-name:7p4lURel. |
Non | |
| fichier d'entraînement | ficelle | ID d’un fichier chargé qui contient des données de formation. Consultez Fichier de chargement pour savoir comment charger un fichier. Votre jeu de données doit être mis en forme en tant que fichier JSONL. En outre, vous devez charger votre fichier à l’aide de l’objectif fine-tune.Le contenu du fichier doit différer selon que le modèle utilise la conversation, le format de saisie semi-automatique ou si la méthode de réglage précis utilise le format de préférence . Consultez le guide affining pour plus de détails. |
Oui | |
| fichier_de_validation | chaîne ou nulle | ID d’un fichier chargé qui contient des données de validation. Si vous fournissez ce fichier, les données sont utilisées pour générer la validation métriques régulièrement pendant l’ajustement. Ces métriques peuvent être consultées dans le fichier de résultats de l’ajustement. Les mêmes données ne doivent pas être présentes dans les fichiers d’apprentissage et de validation. Votre jeu de données doit être mis en forme en tant que fichier JSONL. Vous devez charger votre fichier à l’aide de l’objectif fine-tune.Consultez le guide affining pour plus de détails. |
Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Répertorier les travaux d’optimisation des fins paginés
GET {endpoint}/openai/v1/fine_tuning/jobs
Répertorier les travaux d’optimisation de votre organisation
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| after | query | Non | ficelle | Identificateur du dernier travail de la demande de pagination précédente. |
| limit | query | Non | entier | Nombre de travaux d’ajustement à récupérer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ListPaginatedFineTuningJobsResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Récupérer le travail de réglage précis
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}
Obtenez des informations sur un travail d’ajustement.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| fine_tuning_job_id | chemin | Oui | ficelle | ID du travail d’ajustement. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Annuler le travail de réglage précis
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel
Annulez immédiatement un travail affiné.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| fine_tuning_job_id | chemin | Oui | ficelle | ID du travail d’ajustement à annuler. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Répertorier les points de contrôle de travail de réglage précis
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints
Répertoriez les points de contrôle d’un travail d’ajustement.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| fine_tuning_job_id | chemin | Oui | ficelle | ID du travail d’ajustement pour lequel obtenir des points de contrôle. |
| after | query | Non | ficelle | L’identificateur du dernier ID de point de contrôle de la précédente requête de pagination. |
| limit | query | Non | entier | Le nombre de points de contrôle à récupérer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ListFineTuningJobCheckpointsResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Réglage précis - point de contrôle de copie
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy
Crée une copie d’un point de contrôle de fine-tuning au niveau de la région et du compte de destination donnés.
REMARQUE : Cette API Azure OpenAI est en préversion et peut être modifiée.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| fine_tuning_job_id | chemin | Oui | ficelle | |
| fine_tuning_checkpoint_id | chemin | Oui | ficelle |
En-tête de requête
| Nom | Obligatoire | Type | Descriptif |
|---|---|---|---|
| aoai-copy-ft-checkpoints | Vrai | ficelle Valeurs possibles : preview |
Permet d’accéder aux opérations de copie de point de contrôle pour les modèles, une fonctionnalité AOAI en préversion. Cette fonctionnalité nécessite que l’en-tête « aoai-copy-ft-checkpoints » soit défini sur « preview ». |
| accepter | Vrai | ficelle Valeurs possibles : application/json |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| destinationResourceId | ficelle | ID de la ressource de destination à copier. | Oui | |
| region | ficelle | Région vers laquelle copier le modèle. | Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | CopyModelResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Réglage précis - obtenir un point de contrôle
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy
Obtient l’état d’une copie de point de contrôle de fine-tuning.
REMARQUE : Cette API Azure OpenAI est en préversion et peut être modifiée.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| fine_tuning_job_id | chemin | Oui | ficelle | |
| fine_tuning_checkpoint_id | chemin | Oui | ficelle |
En-tête de requête
| Nom | Obligatoire | Type | Descriptif |
|---|---|---|---|
| aoai-copy-ft-checkpoints | Vrai | ficelle Valeurs possibles : preview |
Permet d’accéder aux opérations de copie de point de contrôle pour les modèles, une fonctionnalité AOAI en préversion. Cette fonctionnalité nécessite que l’en-tête « aoai-copy-ft-checkpoints » soit défini sur « preview ». |
| accepter | Vrai | ficelle Valeurs possibles : application/json |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | CopyModelResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Répertorier les événements de réglage précis
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events
Obtenir les mises à jour d’état pour un travail d’ajustement.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| fine_tuning_job_id | chemin | Oui | ficelle | ID du travail d’ajustement pour obtenir des événements. |
| after | query | Non | ficelle | Identificateur du dernier événement de la précédente requête de pagination. |
| limit | query | Non | entier | Le nombre d’événements à récupérer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ListFineTuningJobEventsResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Suspendre le travail de réglage précis
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause
Suspendre un travail affiné.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| fine_tuning_job_id | chemin | Oui | ficelle | ID du travail d’ajustement à suspendre. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Reprendre le travail de réglage précis
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume
Reprendre une tâche d’optimisation affinée suspendue.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| fine_tuning_job_id | chemin | Oui | ficelle | ID du travail d’ajustement à reprendre. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Models
Lister les modèles
GET {endpoint}/openai/v1/models
Répertorie les modèles actuellement disponibles et fournit des informations de base sur chacun d’eux, tels que le propriétaire et la disponibilité.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ListModelsResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Récupérer le modèle
GET {endpoint}/openai/v1/models/{model}
Récupère une instance de modèle, fournissant des informations de base sur le modèle, telles que le propriétaire et l’autorisation.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| modèle | chemin | Oui | ficelle | ID du modèle à utiliser pour cette requête. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.Model |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Supprimer le modèle
DELETE {endpoint}/openai/v1/models/{model}
Supprime une instance de modèle.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| modèle | chemin | Oui | ficelle | ID du modèle à supprimer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteModelResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Temps réel
Créer un appel en temps réel
POST {endpoint}/openai/v1/realtime/calls
Créez un appel d’API en temps réel sur WebRTC et recevez la réponse SDP nécessaire pour terminer la connexion homologue.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : multipart/form-data
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Sdp | ficelle | Offre SDP (WebRTC Session Description Protocol) générée par l’appelant. | Oui | |
| session | OpenAI.RealtimeSessionCreateRequestGA | Configuration de l’objet session en temps réel. | Non | |
| Audio └> | OpenAI.RealtimeSessionCreateRequestGAAudio | Configuration de l’audio d’entrée et de sortie. | Non | |
| Inclure └ ; | tableau de chaînes | Champs supplémentaires à inclure dans les sorties du serveur.item.input_audio_transcription.logprobs: incluez des logprobs pour la transcription audio d’entrée. |
Non | |
| └─ Instructions | ficelle | Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple« être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité. Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles lors de l’événement session.created au début de la session. |
Non | |
| └ max_output_tokens | entier (voir les modèles valides ci-dessous) | Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournir un entier compris entre 1 et 4096 à limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour unmodèle donné. La valeur par défaut est inf. |
Non | |
| └─ Modèle | ficelle | Modèle temps réel utilisé pour cette session. | Non | |
| └output_modalities | tableau de chaînes | L’ensemble de modalités avec laquelle le modèle peut répondre. Il est ["audio"]par défaut , indiquantque le modèle répond avec l’audio et une transcription. ["text"] peut être utilisé pour fairele modèle répond uniquement avec du texte. Il n’est pas possible de demander les deux text et audio en même temps. |
Non | ['audio'] |
| └─ invite | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. En savoir plus. |
Non | |
| └─ choix_outil | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceFunction ou OpenAI.ToolChoiceMCP | Comment le modèle choisit les outils. Fournir l’un des modes de chaîne ou forcer un élément spécifique outil function/MCP. |
Non | auto |
| └─ Outils | tableau d’OpenAI.RealtimeFunctionTool ou OpenAI.MCPTool | Outils disponibles pour le modèle. | Non | |
| Suivi └> | string ou OpenAI.RealtimeSessionCreateRequestGATracing ou null | « » Défini sur Null pour désactiver le suivi. Une fois le suivi est activé pour une session, la configuration ne peut pas être modifiée. auto crée une trace pour la session avec des valeurs par défaut pour lenom du flux de travail, ID de groupe et métadonnées. |
Non | auto |
| └─ troncature | OpenAI.RealtimeTruncation | Lorsque le nombre de jetons d’une conversation dépasse la limite du jeton d’entrée du modèle, la conversation est tronquée, ce qui signifie que les messages (à partir du plus ancien) ne sont pas inclus dans le contexte du modèle. Un modèle de contexte de 32 096 avec 4 096 jetons de sortie max ne peut inclure que 28 224 jetons dans le contexte avant la troncation. Les clients peuvent configurer le comportement de troncation pour tronquer avec une limite de jeton maximale inférieure, ce qui constitue un moyen efficace de contrôler l’utilisation et le coût des jetons. La troncation réduit le nombre de jetons mis en cache au prochain tour (busting the cache), car les messages sont supprimés du début du contexte. Toutefois, les clients peuvent également configurer la troncation pour conserver les messages jusqu’à une fraction de la taille de contexte maximale, ce qui réduit la nécessité de troncations futures et améliore ainsi le taux de cache. La troncation peut être désactivée entièrement, ce qui signifie que le serveur ne sera jamais tronqué, mais retournerait plutôt une erreur si la conversation dépasse la limite du jeton d’entrée du modèle. |
Non | |
| └─ Type | enum | Type de session à créer. Toujours realtime pour l’API En temps réel.Valeurs possibles : realtime |
Oui |
Responses
Code d’état : 201
Description : la demande a réussi et une nouvelle ressource a été créée par conséquent.
| Type de contenu | Type | Description |
|---|---|---|
| application/sdp | ficelle |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| location | ficelle | URL relative contenant l’ID d’appel pour les demandes de contrôle suivantes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Accepter un appel en temps réel
POST {endpoint}/openai/v1/realtime/calls/{call_id}/accept
Acceptez un appel SIP entrant et configurez la session en temps réel qui la gérera.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| call_id | chemin | Oui | ficelle | Identificateur de l’appel fourni dans le webhook realtime.call.incoming. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| audio | OpenAI.RealtimeSessionCreateRequestGAAudio | Non | ||
| └─ Entrée | OpenAI.RealtimeSessionCreateRequestGAAudioInput | Non | ||
| └─ Sortie | OpenAI.RealtimeSessionCreateRequestGAAudioOutput | Non | ||
| inclure | tableau de chaînes | Champs supplémentaires à inclure dans les sorties du serveur.item.input_audio_transcription.logprobs: incluez des logprobs pour la transcription audio d’entrée. |
Non | |
| instructions | ficelle | Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple« être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité. Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles lors de l’événement session.created au début de la session. |
Non | |
| max_output_tokens | entier (voir les modèles valides ci-dessous) | Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournir un entier compris entre 1 et 4096 à limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour unmodèle donné. La valeur par défaut est inf. |
Non | |
| modèle | ficelle | Modèle temps réel utilisé pour cette session. | Non | |
| modalités de sortie | tableau de chaînes | L’ensemble de modalités avec laquelle le modèle peut répondre. Il est ["audio"]par défaut , indiquantque le modèle répond avec l’audio et une transcription. ["text"] peut être utilisé pour fairele modèle répond uniquement avec du texte. Il n’est pas possible de demander les deux text et audio en même temps. |
Non | ['audio'] |
| prompt | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. En savoir plus. |
Non | |
| tool_choice | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceFunction ou OpenAI.ToolChoiceMCP | Comment le modèle choisit les outils. Fournir l’un des modes de chaîne ou forcer un élément spécifique outil function/MCP. |
Non | |
| outils | tableau d’OpenAI.RealtimeFunctionTool ou OpenAI.MCPTool | Outils disponibles pour le modèle. | Non | |
| tracing | string ou OpenAI.RealtimeSessionCreateRequestGATracing ou null | « » Défini sur Null pour désactiver le suivi. Une fois le suivi est activé pour une session, la configuration ne peut pas être modifiée. auto crée une trace pour la session avec des valeurs par défaut pour lenom du flux de travail, ID de groupe et métadonnées. |
Non | |
| truncation | OpenAI.RealtimeTruncation | Lorsque le nombre de jetons d’une conversation dépasse la limite du jeton d’entrée du modèle, la conversation est tronquée, ce qui signifie que les messages (à partir du plus ancien) ne sont pas inclus dans le contexte du modèle. Un modèle de contexte de 32 096 avec 4 096 jetons de sortie max ne peut inclure que 28 224 jetons dans le contexte avant la troncation. Les clients peuvent configurer le comportement de troncation pour tronquer avec une limite de jeton maximale inférieure, ce qui constitue un moyen efficace de contrôler l’utilisation et le coût des jetons. La troncation réduit le nombre de jetons mis en cache au prochain tour (busting the cache), car les messages sont supprimés du début du contexte. Toutefois, les clients peuvent également configurer la troncation pour conserver les messages jusqu’à une fraction de la taille de contexte maximale, ce qui réduit la nécessité de troncations futures et améliore ainsi le taux de cache. La troncation peut être désactivée entièrement, ce qui signifie que le serveur ne sera jamais tronqué, mais retournerait plutôt une erreur si la conversation dépasse la limite du jeton d’entrée du modèle. |
Non | |
| type | enum | Type de session à créer. Toujours realtime pour l’API En temps réel.Valeurs possibles : realtime |
Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Raccrocher un appel en temps réel
POST {endpoint}/openai/v1/realtime/calls/{call_id}/hangup
Terminez un appel d’API en temps réel actif, qu’il ait été lancé via SIP ou WebRTC.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| call_id | chemin | Oui | ficelle | Identificateur de l’appel. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Faire référence à l’appel en temps réel
POST {endpoint}/openai/v1/realtime/calls/{call_id}/refer
Transférez un appel SIP actif vers une nouvelle destination à l’aide du verbe SIP REFER.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| call_id | chemin | Oui | ficelle | Identificateur de l’appel fourni dans le webhook realtime.call.incoming. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| target_uri | ficelle | URI qui doit apparaître dans l’en-tête Refer-To SIP. Prend en charge les valeurs telles quetel:+14155550123 ou sip:agent\@example.com. |
Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Rejeter l’appel en temps réel
POST {endpoint}/openai/v1/realtime/calls/{call_id}/reject
Refuser un appel SIP entrant en retournant un code d’état SIP à l’appelant.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| call_id | chemin | Oui | ficelle | Identificateur de l’appel fourni dans le webhook realtime.call.incoming. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| status_code | entier | Code de réponse SIP à renvoyer à l’appelant.
603 Valeurs par défaut (Refuser)lorsqu’il est omis. |
Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer une clé secrète client en temps réel
POST {endpoint}/openai/v1/realtime/client_secrets
Créez une clé secrète client en temps réel avec une configuration de session associée.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| expire_après | OpenAI.RealtimeCreateClientSecretRequestExpiresAfter | Non | ||
| └─ Ancre | enum | Valeurs possibles : created_at |
Non | |
| └ secondes | entier | Contraintes : min : 10, max : 7200 | Non | 600 |
| session | OpenAI.RealtimeSessionCreateRequestUnion | Non | ||
| └─ Type | OpenAI.RealtimeSessionCreateRequestUnionType | Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.RealtimeCreateClientSecretResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer une session en temps réel
POST {endpoint}/openai/v1/realtime/sessions
Créez un jeton d’API éphémère à utiliser dans les applications côté client avec l’API Temps réel.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| secret du client | OpenAI.RealtimeSessionCreateRequestClientSecret | Oui | ||
| expires_at | entier | Oui | ||
| └─ valeur | ficelle | Oui | ||
| input_audio_format | ficelle | Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw. |
Non | |
| input_audio_transcription | OpenAI.RealtimeSessionCreateRequestInputAudioTranscription | Non | ||
| └─ Modèle | ficelle | Non | ||
| instructions | ficelle | Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple« être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité. Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles lors de l’événement session.created au début de la session. |
Non | |
| max_response_output_tokens | entier (voir les modèles valides ci-dessous) | Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournir un entier compris entre 1 et 4096 à limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour unmodèle donné. La valeur par défaut est inf. |
Non | |
| modalités | tableau de chaînes | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez cette valeur sur ["text"]. |
Non | ['text', 'audio'] |
| output_audio_format | ficelle | Format de l’audio de sortie. Les options sont pcm16, g711_ulaw ou g711_alaw. |
Non | |
| prompt | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. En savoir plus. |
Non | |
| speed | nombre | Vitesse de la réponse parlée du modèle. 1.0 est la vitesse par défaut. 0.25 est vitesse minimale. 1,5 est la vitesse maximale. Cette valeur ne peut être modifiée que entre les tours du modèle, et non pendant qu’une réponse est en cours. Contraintes : min : 0,25, max : 1,5 |
Non | 1 |
| température | nombre | Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. La valeur par défaut est 0,8. | Non | |
| tool_choice | ficelle | Comment le modèle choisit les outils. Les options sont auto, , nonerequiredouspécifiez une fonction. |
Non | |
| outils | array of OpenAI.RealtimeSessionCreateRequestTools | Outils (fonctions) disponibles pour le modèle. | Non | |
| tracing | chaîne ou objet | Options de configuration pour le suivi. Définissez la valeur Null pour désactiver le suivi. Une fois le suivi est activé pour une session, la configuration ne peut pas être modifiée. auto crée une trace pour la session avec des valeurs par défaut pour lenom du flux de travail, ID de groupe et métadonnées. |
Non | |
| truncation | OpenAI.RealtimeTruncation | Lorsque le nombre de jetons d’une conversation dépasse la limite du jeton d’entrée du modèle, la conversation est tronquée, ce qui signifie que les messages (à partir du plus ancien) ne sont pas inclus dans le contexte du modèle. Un modèle de contexte de 32 096 avec 4 096 jetons de sortie max ne peut inclure que 28 224 jetons dans le contexte avant la troncation. Les clients peuvent configurer le comportement de troncation pour tronquer avec une limite de jeton maximale inférieure, ce qui constitue un moyen efficace de contrôler l’utilisation et le coût des jetons. La troncation réduit le nombre de jetons mis en cache au prochain tour (busting the cache), car les messages sont supprimés du début du contexte. Toutefois, les clients peuvent également configurer la troncation pour conserver les messages jusqu’à une fraction de la taille de contexte maximale, ce qui réduit la nécessité de troncations futures et améliore ainsi le taux de cache. La troncation peut être désactivée entièrement, ce qui signifie que le serveur ne sera jamais tronqué, mais retournerait plutôt une erreur si la conversation dépasse la limite du jeton d’entrée du modèle. |
Non | |
| turn_detection | OpenAI.RealtimeSessionCreateRequestTurnDetection | Non | ||
| prefix_padding_ms | entier | Non | ||
| └durée_du_silence_ms | entier | Non | ||
| └─ seuil | nombre | Non | ||
| └─ Type | ficelle | Non | ||
| type | enum | Valeurs possibles : realtime |
Oui | |
| voice | OpenAI.VoiceIdsShared | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.RealtimeSessionCreateResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer une session de transcription en temps réel
POST {endpoint}/openai/v1/realtime/transcription_sessions
Créez un jeton d’API éphémère à utiliser dans les applications côté client avec l’API Temps réel spécifiquement pour les transcriptions en temps réel.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| inclure | tableau de chaînes | Ensemble d’éléments à inclure dans la transcription. Les éléments disponibles actuels sont les suivants :item.input_audio_transcription.logprobs |
Non | |
| input_audio_format | enum | Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw.Pour pcm16, l’audio d’entrée doit être 16 bits PCM à un taux d’échantillonnage de 24 kHz,un canal unique (mono) et un ordre d’octets little-endian. Valeurs possibles : pcm16, , g711_ulawg711_alaw |
Non | |
| input_audio_noise_reduction | OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction | Non | ||
| └─ Type | OpenAI.NoiseReductionType | Type de réduction du bruit.
near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence. |
Non | |
| input_audio_transcription | OpenAI.AudioTranscription | Non | ||
| └─ Langue | ficelle | La langue de l’audio d’entrée. Fourniture de la langue d’entrée dans Format ISO-639-1 (par exemple en)améliore la précision et la latence. |
Non | |
| └─ Modèle | ficelle | Modèle à utiliser pour la transcription. Les options actuelles sont whisper-1, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeet gpt-4o-transcribe-diarize. Utilisez gpt-4o-transcribe-diarize quand vous avez besoin d’une diarisation avec des étiquettes d’orateur. |
Non | |
| └─ invite | ficelle | Texte facultatif pour guider le style du modèle ou continuer un audio précédent Segment. Pour whisper-1, l’invite est une liste de mots clés.Pour gpt-4o-transcribe les modèles (à l’exclusion gpt-4o-transcribe-diarize), l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ». |
Non | |
| turn_detection | OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection | Non | ||
| prefix_padding_ms | entier | Non | ||
| └durée_du_silence_ms | entier | Non | ||
| └─ seuil | nombre | Non | ||
| └─ Type | enum | Valeurs possibles : server_vad |
Non | |
| type | enum | Valeurs possibles : transcription |
Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.RealtimeTranscriptionSessionCreateResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Responses
Créer une réponse
POST {endpoint}/openai/v1/responses
Crée un modèle de réponse.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| background | booléen ou null | Non | ||
| conversation | OpenAI.ConversationParam ou null | Non | ||
| inclure | tableau d’OpenAI.IncludeEnum ou null | Non | ||
| entrée | OpenAI.InputParam | Entrées de texte, d’image ou de fichier dans le modèle, utilisées pour générer une réponse. Pour en savoir plus: - Entrées et sorties texte - Entrées d’image - Entrées de fichier - État de conversation - Fonction appelant |
Non | |
| instructions | chaîne ou nulle | Non | ||
| max_output_tokens | entier ou null | Non | ||
| max_tool_calls | entier ou null | Non | ||
| metadata | OpenAI.Metadata ou null | Non | ||
| modèle | ficelle | ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAIoffre un large éventail de modèles avec différentes fonctionnalités, performances caractéristiques et points de prix. Reportez-vous au guide du modèle pour parcourir et comparer les modèles disponibles. |
Non | |
| parallel_tool_calls | booléen ou null | Non | ||
| previous_response_id | chaîne ou nulle | Non | ||
| prompt | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. En savoir plus. |
Non | |
| prompt_cache_key | ficelle | Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ.
En savoir plus. |
Non | |
| prompt_cache_retention | chaîne ou nulle | Non | ||
| reasoning | OpenAI.Reasoning ou Null | Non | ||
| safety_identifier | ficelle | Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI. Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus. |
Non | |
| store | booléen ou null | Non | ||
| ruisseau | booléen ou null | Non | ||
| stream_options | OpenAI.ResponseStreamOptions ou null | Non | ||
| température | nombre ou null | Non | ||
| texte | OpenAI.ResponseTextParam | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus: - Entrées et sorties texte - Sorties structurées |
Non | |
| tool_choice | OpenAI.ToolChoiceParam | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération une réponse. Voir le tools paramètre pour voir comment spécifier les outilsle modèle peut effectuer un appel. |
Non | |
| outils | OpenAI.ToolsArray | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.Nous prenons en charge les catégories d’outils suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent le Les capacités du modèle, comme recherche web ou outils intégrés. - Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur Outils MCP. - Appels de fonction (outils personnalisés) : fonctions définies par vous, activation du modèle pour appeler votre propre code avec des arguments fortement typés et sorties. En savoir plus sur fonction appelant. Vous pouvez également utiliser outils personnalisés pour appeler votre propre code. |
Non | |
| top_logprobs | entier ou null | Non | ||
| top_p | nombre ou null | Non | ||
| truncation | chaîne ou nulle | Non | ||
| utilisateur | chaîne (déconseillée) | Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.Identificateur stable pour vos utilisateurs finaux. Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus. |
Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet | |
| text/event-stream | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Exemples
Example
POST {endpoint}/openai/v1/responses
Obtenir la réponse
GET {endpoint}/openai/v1/responses/{response_id}
Récupère une réponse de modèle avec l’ID donné.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| response_id | chemin | Oui | ficelle | |
| include[] | query | Non | tableau | Champs supplémentaires à inclure dans la réponse. Pour plus d’informations, consultez le paramètre Include pour la création de réponse ci-dessus. |
| ruisseau | query | Non | booléen | Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. |
| starting_after | query | Non | entier | Numéro de séquence de l’événement après lequel démarrer la diffusion en continu. |
| include_obfuscation | query | Non | booléen | Lorsque la valeur est true, l’obfuscation de flux est activée. L’obfuscation de flux ajoute des caractères aléatoires à un champ obfuscation sur les événements delta de diffusion en continu afin de normaliser les tailles de charge utile en guise d’atténuation de certaines attaques par canal latéral. Ces champs d’obfuscation sont inclus par défaut, mais ils ajoutent une petite surcharge au flux de données. Vous pouvez affecter la valeur false à include_obfuscation pour optimiser la bande passante si vous faites confiance aux liaisons réseau entre votre application et l’API OpenAI. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Supprimer la réponse
DELETE {endpoint}/openai/v1/responses/{response_id}
Supprime une réponse par ID.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| response_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Annuler la réponse
POST {endpoint}/openai/v1/responses/{response_id}/cancel
Annule une réponse de modèle avec l’ID donné. Seules les réponses créées avec le paramètre d’arrière-plan défini sur true peuvent être annulées.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| response_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Répertorier les éléments d’entrée
GET {endpoint}/openai/v1/responses/{response_id}/input_items
Retourne une liste d’éléments d’entrée pour une réponse donnée.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| response_id | chemin | Oui | ficelle | |
| limit | query | Non | entier | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | Non | ficelle Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant etdescdans l’ordre décroissant. |
| after | query | Non | ficelle | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre Un appel ultérieur peut inclure after=obj_foo afin de récupérer la page suivante de la liste. |
| before | query | Non | ficelle | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre l'appel suivant peut inclure before=obj_foo afin de récupérer la page précédente de la liste. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ResponseItemList |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Sujets
Créer un thread
POST {endpoint}/openai/v1/threads
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| messages | tableau d’OpenAI.CreateMessageRequest | Liste des messages à utiliser pour démarrer le thread. | Non | |
| metadata | OpenAI.Metadata ou null | Non | ||
| tool_resources | OpenAI.CreateThreadRequestToolResources ou null | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ThreadObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Createthread and run
POST {endpoint}/openai/v1/threads/runs
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| assistant_id | ficelle | ID de l’Assistant à utiliser pour exécuter cette exécution. | Oui | |
| instructions | chaîne ou nulle | Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
| max_completion_tokens | entier ou null | Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
Non | |
| max_prompt_tokens | entier ou null | Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
Non | |
| metadata | OpenAI.Metadata ou null | Non | ||
| modèle | ficelle | ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | Non | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | Non | |
| format_de_réponse | OpenAI.AssistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important :* lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non | |
| ruisseau | booléen ou null | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE]. |
Non | |
| température | nombre ou null | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. | Non | |
| fil | OpenAI.CreateThreadRequest | Options de création d’un thread. Si aucun thread n’est fourni lors de l’exécution d’un thread demande, un thread vide est créé. |
Non | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils avant de répondre à l’utilisateur.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
Non | |
| tool_resources | OpenAI.CreateThreadAndRunRequestToolResources ou null | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Non | |
| outils | tableau d’OpenAI.AssistantTool | Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
| top_p | nombre ou null | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
Non | |
| truncation_strategy | OpenAI.TruncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.RunObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Supprimer un thread
DELETE {endpoint}/openai/v1/threads/{thread_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteThreadResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Récupérer le thread
GET {endpoint}/openai/v1/threads/{thread_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ThreadObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Modifier le thread
POST {endpoint}/openai/v1/threads/{thread_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| metadata | OpenAI.Metadata ou null | Non | ||
| tool_resources | OpenAI.ModifyThreadRequestToolResources ou null | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ThreadObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Répertorier des messages
GET {endpoint}/openai/v1/threads/{thread_id}/messages
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle | |
| limit | query | Non | entier | |
| order | query | Non | ficelle Valeurs possibles : asc, desc |
|
| after | query | Non | ficelle | |
| before | query | Non | ficelle | |
| run_id | query | Non | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ListMessagesResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer un message
POST {endpoint}/openai/v1/threads/{thread_id}/messages
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| attachments | tableau d’OpenAI.CreateMessageRequestAttachments ou null | Non | ||
| contenu | chaîne ou tableau d’OpenAI.MessageContentImageFileObject ou OpenAI.MessageContentImageUrlObject ou OpenAI.MessageRequestContentTextObject | Oui | ||
| metadata | OpenAI.Metadata ou null | Non | ||
| role | enum | Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes : - user : indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur.- assistant : indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation.Valeurs possibles : user, assistant |
Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.MessageObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Supprimer un message
DELETE {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle | |
| message_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteMessageResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Récupérer le message
GET {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle | |
| message_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.MessageObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Modifier le message
POST {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle | |
| message_id | chemin | Oui | ficelle |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| metadata | OpenAI.Metadata ou null | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.MessageObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer une exécution
POST {endpoint}/openai/v1/threads/{thread_id}/runs
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| additional_instructions | chaîne ou nulle | Ajoute des instructions supplémentaires à la fin des instructions de l’exécution. Cela est utile pour modifier le comportement lors de chaque exécution sans remplacer d’autres instructions. | Non | |
| additional_messages | tableau d’OpenAI.CreateMessageRequest ou null | Ajoute des messages supplémentaires au thread avant de créer l’exécution. | Non | |
| assistant_id | ficelle | ID de l’Assistant à utiliser pour exécuter cette exécution. | Oui | |
| instructions | chaîne ou nulle | Remplace les instructions de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
| max_completion_tokens | entier ou null | Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
Non | |
| max_prompt_tokens | entier ou null | Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
Non | |
| metadata | OpenAI.Metadata ou null | Non | ||
| modèle | ficelle | ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | Non | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | Non | |
| effort de raisonnement | OpenAI.ReasoningEffort | Limite l’effort sur le raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduirel’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés le raisonnement dans une réponse. - gpt-5.1
nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max. |
Non | |
| format_de_réponse | OpenAI.AssistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important :* lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non | |
| ruisseau | booléen ou null | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE]. |
Non | |
| température | nombre ou null | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. | Non | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils avant de répondre à l’utilisateur.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
Non | |
| outils | tableau d’OpenAI.AssistantTool | Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
| top_p | nombre ou null | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
Non | |
| truncation_strategy | OpenAI.TruncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.RunObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Répertorier les exécutions
GET {endpoint}/openai/v1/threads/{thread_id}/runs
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle | |
| limit | query | Non | entier | |
| order | query | Non | ficelle Valeurs possibles : asc, desc |
|
| after | query | Non | ficelle | |
| before | query | Non | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ListRunsResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Récupérer l’exécution
GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle | |
| run_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.RunObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Modifier l’exécution
POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle | |
| run_id | chemin | Oui | ficelle |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| metadata | OpenAI.Metadata ou null | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.RunObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Annuler l’exécution
POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/cancel
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle | |
| run_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.RunObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Lister les étapes d’exécution
GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle | |
| run_id | chemin | Oui | ficelle | |
| limit | query | Non | entier | |
| order | query | Non | ficelle Valeurs possibles : asc, desc |
|
| after | query | Non | ficelle | |
| before | query | Non | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ListRunStepsResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Obtenir l’étape d’exécution
GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps/{step_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle | |
| run_id | chemin | Oui | ficelle | |
| step_id | chemin | Oui | ficelle |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.RunStepObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Envoyer des sorties d’outil à exécuter
POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/submit_tool_outputs
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| thread_id | chemin | Oui | ficelle | |
| run_id | chemin | Oui | ficelle |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| ruisseau | booléen ou null | Non | ||
| tool_outputs | tableau d’OpenAI.SubmitToolOutputsRunRequestToolOutputs | Liste des outils pour lesquels les sorties sont envoyées. | Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.RunObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Magasins de vecteurs
Répertorier les magasins de vecteurs
GET {endpoint}/openai/v1/vector_stores
Retourne une liste de magasins de vecteurs.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| limit | query | Non | entier | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | Non | ficelle Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant etdescdans l’ordre décroissant. |
| after | query | Non | ficelle | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre Un appel ultérieur peut inclure after=obj_foo afin de récupérer la page suivante de la liste. |
| before | query | Non | ficelle | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre l'appel suivant peut inclure before=obj_foo afin de récupérer la page précédente de la liste. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoresResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer un magasin de vecteurs
POST {endpoint}/openai/v1/vector_stores
Crée un magasin de vecteurs.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. |
Non | |
| descriptif | ficelle | Description du magasin de vecteurs. Peut être utilisé pour décrire l’objectif du magasin vectoriel. | Non | |
| expire_après | OpenAI.VectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | Non | |
| identifiants_de_fichiers | tableau de chaînes | Liste des ID de fichier que le magasin vectoriel doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
Non | |
| metadata | OpenAI.Metadata ou null | Non | ||
| nom | ficelle | Le nom du magasin de vecteurs. | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Exemples
Example
POST {endpoint}/openai/v1/vector_stores
Obtenir le magasin de vecteurs
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}
Récupère un magasin de vecteurs.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| vector_store_id | chemin | Oui | ficelle | L'ID du magasin de vecteurs à récupérer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Modifier le magasin de vecteurs
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}
Modifie un magasin de vecteurs.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| vector_store_id | chemin | Oui | ficelle | ID du magasin de vecteurs à modifier. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| expire_après | OpenAI.VectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | Non | |
| metadata | OpenAI.Metadata ou null | Non | ||
| nom | chaîne ou nulle | Le nom du magasin de vecteurs. | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Supprimer le magasin de vecteurs
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}
Supprimez un magasin de vecteurs.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| vector_store_id | chemin | Oui | ficelle | ID du magasin de vecteurs à supprimer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteVectorStoreResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer un lot de fichiers de magasin de vecteurs
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches
Créez un lot de fichiers de magasin de vecteurs.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| vector_store_id | chemin | Oui | ficelle | ID du magasin de vecteurs pour lequel créer un lot de fichiers. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes ou null | Non | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. |
Non | |
| identifiants_de_fichiers | tableau de chaînes | Liste des ID de fichier que le magasin vectoriel doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. S’ils attributes sont fournis ou chunking_strategy fournis, ils sont appliqués à tous les fichiers du lot. Mutuellement exclusif avec files. |
Non | |
| Fichiers | array of OpenAI.CreateVectorStoreFileRequest | Liste d’objets qui incluent chacun un file_id plus facultatif attributes ou chunking_strategy. Utilisez cette option lorsque vous devez remplacer les métadonnées pour des fichiers spécifiques.
attributes Global ou chunking_strategy sera ignoré et doit être spécifié pour chaque fichier. Mutuellement exclusif avec file_ids. |
Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Obtenir le lot de fichiers de magasin de vecteurs
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}
Récupère un lot de fichiers de magasin de vecteurs.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| vector_store_id | chemin | Oui | ficelle | ID du magasin de vecteurs auquel appartient le lot de fichiers. |
| batch_id | chemin | Oui | ficelle | ID du lot de fichiers récupéré. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Annuler le lot de fichiers de magasin de vecteurs
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel
Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| vector_store_id | chemin | Oui | ficelle | ID du magasin de vecteurs auquel appartient le lot de fichiers. |
| batch_id | chemin | Oui | ficelle | ID du lot de fichiers à annuler. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Répertorier les fichiers dans le lot de magasin de vecteurs
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files
Retourne une liste de fichiers de magasin de vecteurs dans un lot.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| vector_store_id | chemin | Oui | ficelle | ID du magasin de vecteurs auquel appartient le lot de fichiers. |
| batch_id | chemin | Oui | ficelle | ID du lot de fichiers auquel appartiennent les fichiers. |
| limit | query | Non | entier | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | Non | ficelle Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant etdescdans l’ordre décroissant. |
| after | query | Non | ficelle | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre Un appel ultérieur peut inclure after=obj_foo afin de récupérer la page suivante de la liste. |
| before | query | Non | ficelle | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre l'appel suivant peut inclure before=obj_foo afin de récupérer la page précédente de la liste. |
| Filter | query | Non | ficelle Valeurs possibles : in_progress, , completedfailed,cancelled |
Filtrer par état de fichier. Un des in_progress, completed, failed, cancelled. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoreFilesResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Répertorier les fichiers de magasin de vecteurs
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files
Retourne une liste de fichiers de magasin de vecteurs.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| vector_store_id | chemin | Oui | ficelle | ID du magasin vectoriel auquel appartiennent les fichiers. |
| limit | query | Non | entier | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | Non | ficelle Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant etdescdans l’ordre décroissant. |
| after | query | Non | ficelle | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre Un appel ultérieur peut inclure after=obj_foo afin de récupérer la page suivante de la liste. |
| before | query | Non | ficelle | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous envoyez une requête de liste et vous recevez 100 objets qui se terminent par obj_foo, votre l'appel suivant peut inclure before=obj_foo afin de récupérer la page précédente de la liste. |
| Filter | query | Non | ficelle Valeurs possibles : in_progress, , completedfailed,cancelled |
Filtrer par état de fichier. Un des in_progress, completed, failed, cancelled. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoreFilesResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Créer un fichier de magasin de vecteurs
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files
Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin de vecteurs.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| vector_store_id | chemin | Oui | ficelle | ID du magasin de vecteurs pour lequel créer un fichier. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes ou null | Non | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. |
Non | |
| identifiant_de_fichier | ficelle | ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Obtenir le fichier de magasin de vecteurs
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
Récupère un fichier de magasin de vecteurs.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| vector_store_id | chemin | Oui | ficelle | ID du magasin vectoriel auquel appartient le fichier. |
| identifiant_de_fichier | chemin | Oui | ficelle | ID du fichier récupéré. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Mettre à jour les attributs de fichier de magasin de vecteurs
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| vector_store_id | chemin | Oui | ficelle | |
| identifiant_de_fichier | chemin | Oui | ficelle |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes ou null | Oui |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Supprimer le fichier de magasin de vecteurs
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin de vecteurs, mais le fichier lui-même ne sera pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de point de terminaison de point de terminaison de fichier de suppression.
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| vector_store_id | chemin | Oui | ficelle | ID du magasin vectoriel auquel appartient le fichier. |
| identifiant_de_fichier | chemin | Oui | ficelle | ID du fichier à supprimer. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteVectorStoreFileResponse |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Récupérer le contenu du fichier de stockage de vecteurs
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}/content
Récupérer le contenu du fichier de stockage de vecteurs
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| vector_store_id | chemin | Oui | ficelle | ID du magasin de vecteurs à rechercher. |
| identifiant_de_fichier | chemin | Oui | ficelle | ID du fichier pour lequel récupérer du contenu. |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreSearchResultsPage |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Stockage de vecteurs de recherche
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/search
Stockage de vecteurs de recherche
Paramètres d’URI
| Nom | In | Obligatoire | Type | Descriptif |
|---|---|---|---|---|
| endpoint | chemin | Oui | ficelle | Points de terminaison Azure OpenAI pris en charge (protocole et nom d'hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
| version de l'API | query | Non | ficelle | Version explicite de l’API Azure AI Foundry Models à utiliser pour cette requête.v1 sauf indication contraire. |
| vector_store_id | chemin | Oui | ficelle | ID du magasin de vecteurs à rechercher. |
Corps de la requête
Content-Type : application/json
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| filters | OpenAI.ComparisonFilter ou OpenAI.CompoundFilter | Filtre à appliquer en fonction des attributs de fichier. | Non | |
| nombre_maximal_de_résultats | entier | Le nombre maximal de résultats à renvoyer. Ce nombre doit être compris entre 1 et 50 inclus. Contraintes : min : 1, max : 50 |
Non | 10 |
| query | chaîne ou tableau de chaînes | Chaîne de requête pour une recherche | Oui | |
| options_de_classement | OpenAI.VectorStoreSearchRequestRankingOptions | Non | ||
| └─ classificateur | enum | Valeurs possibles : none, , autodefault-2024-11-15 |
Non | |
| └score_threshold | nombre | Contraintes : min : 0, max : 1 | Non | |
| rewrite_query | booléen | Indique s’il faut réécrire la requête en langage naturel pour la recherche vectorielle. | Non |
Responses
Code d’état : 200
Description : la requête a bien abouti.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreSearchResultsPage |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Type de contenu | Type | Description |
|---|---|---|
| application/json | objet |
En-têtes de réponse :
| Header | Type | Descriptif |
|---|---|---|
| apim-request-id | ficelle | ID de demande utilisé à des fins de résolution des problèmes. |
Components
AudioSegment
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| avg_logprob | nombre | Probabilité moyenne du journal associée à ce segment audio. | Oui | |
| compression_ratio | nombre | Taux de compression de ce segment audio. | Oui | |
| fin | nombre | Heure à laquelle ce segment s’est terminé par rapport au début de l’audio traduit. | Oui | |
| id | entier | Index de base 0 de ce segment dans une traduction. | Oui | |
| no_speech_prob | nombre | Probabilité d’absence de détection vocale dans ce segment audio. | Oui | |
| seek | entier | Position de recherche associée au traitement de ce segment audio. Les positions de recherche sont exprimées sous forme de centièmes de secondes. Le modèle peut traiter plusieurs segments d’une position de recherche unique, de sorte que la position de recherche ne représentera jamais de date ultérieur au début du segment. Le début du segment peut représenter une heure beaucoup plus tard que la position de recherche associée du segment. |
Oui | |
| start | nombre | Heure à laquelle ce segment a commencé par rapport au début de l’audio traduit. | Oui | |
| température | nombre | Score de température associé à ce segment audio. | Oui | |
| texte | ficelle | Texte traduit qui faisait partie de ce segment audio. | Oui | |
| tokens | tableau d’entiers | ID de jeton correspondant au texte traduit dans ce segment audio. | Oui |
AudioTaskLabel
Définit les descripteurs possibles pour les réponses d’opération audio disponibles.
| Propriété | Valeur |
|---|---|
| Description | Définit les descripteurs possibles pour les réponses d’opération audio disponibles. |
| Type | ficelle |
| Valeurs | transcribetranslate |
AudioTranslationSegment
Informations étendues sur un segment unique de données audio traduites. Les segments représentent généralement environ 5 à 10 secondes de parole. Les limites de segment se produisent généralement entre des mots, mais pas nécessairement des phrases.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| avg_logprob | nombre | Probabilité moyenne du journal associée à ce segment audio. | Oui | |
| compression_ratio | nombre | Taux de compression de ce segment audio. | Oui | |
| fin | nombre | Heure à laquelle ce segment s’est terminé par rapport au début de l’audio traduit. | Oui | |
| id | entier | Index de base 0 de ce segment dans une traduction. | Oui | |
| no_speech_prob | nombre | Probabilité d’absence de détection vocale dans ce segment audio. | Oui | |
| seek | entier | Position de recherche associée au traitement de ce segment audio. Les positions de recherche sont exprimées sous forme de centièmes de secondes. Le modèle peut traiter plusieurs segments d’une position de recherche unique, de sorte que la position de recherche ne représentera jamais de date ultérieur au début du segment. Le début du segment peut représenter une heure beaucoup plus tard que la position de recherche associée du segment. |
Oui | |
| start | nombre | Heure à laquelle ce segment a commencé par rapport au début de l’audio traduit. | Oui | |
| température | nombre | Score de température associé à ce segment audio. | Oui | |
| texte | ficelle | Texte traduit qui faisait partie de ce segment audio. | Oui | |
| tokens | tableau d’entiers | ID de jeton correspondant au texte traduit dans ce segment audio. | Oui |
AzureAIFoundryModelsApiVersion
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | v1preview |
AzureAudioTranscriptionResponse
Informations de résultat pour une opération qui a transcrit l’audio parlé en texte écrit.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| durée | nombre | Durée totale de l’audio traité pour produire des informations de transcription associées. | Non | |
| language | ficelle | Langue parlée détectée dans les données audio transcrites. Cela est exprimé sous la forme d’un code de langue ISO-639-1 à deux lettres comme « en » ou « fr ». |
Non | |
| segments | tableau d’OpenAI.TranscriptionSegment | Collection d’informations sur le minutage, les probabilités et les autres détails de chaque segment audio traité. | Non | |
| tâche | AudioTaskLabel | Définit les descripteurs possibles pour les réponses d’opération audio disponibles. | Non | |
| texte | ficelle | Texte transcrit pour les données audio fournies. | Oui | |
| words | tableau d’OpenAI.TranscriptionWord | Collection d’informations sur le minutage de chaque mot traité. | Non |
AzureAudioTranslationResponse
Informations de résultat pour une opération qui a traduit l’audio parlé en texte écrit.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| durée | nombre | Durée totale de l’audio traité pour produire des informations de traduction associées. | Non | |
| language | ficelle | Langue parlée détectée dans les données audio traduites. Cela est exprimé sous la forme d’un code de langue ISO-639-1 à deux lettres comme « en » ou « fr ». |
Non | |
| segments | tableau d’AudioTranslationSegment | Collection d’informations sur le minutage, les probabilités et les autres détails de chaque segment audio traité. | Non | |
| tâche | AudioTaskLabel | Définit les descripteurs possibles pour les réponses d’opération audio disponibles. | Non | |
| texte | ficelle | Texte traduit pour les données audio fournies. | Oui |
AzureCompletionsSamplingParams
Paramètres d’échantillonnage pour contrôler le comportement des achèvements.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| max_completion_tokens | entier | Non | ||
| nombre_maximal_de_tokens | entier | Nombre maximal de jetons dans la sortie générée. | Non | |
| effort de raisonnement | OpenAI.ReasoningEffort | Limite l’effort sur le raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduirel’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés le raisonnement dans une réponse. - gpt-5.1
nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max. |
Non | |
| format_de_réponse | OpenAI.ResponseFormatText ou OpenAI.ResponseFormatJsonSchema ou OpenAI.ResponseFormatJsonObject | Non | ||
| seed | entier | Une valeur initiale initialise la randomité pendant l’échantillonnage. | Non | 42 |
| température | nombre | Une température plus élevée augmente l'aléa des résultats. | Non | 1 |
| outils | tableau d’OpenAI.ChatCompletionTool | Non | ||
| top_p | nombre | Alternative à la température pour l'échantillonnage de noyau ; 1.0 inclut tous les éléments. | Non | 1 |
AzureContentFilterBlocklistIdResult
Élément de résultat de filtre de contenu qui associe un ID de liste de blocs personnalisé existant à une valeur indiquant si la liste de blocs correspondante a entraîné le filtrage du contenu.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| filtered | booléen | Indique si la liste de blocs associée a entraîné le filtrage du contenu. | Oui | |
| id | ficelle | ID de la liste de blocs personnalisée associée à l’état filtré. | Oui |
AzureContentFilterBlocklistResult
Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| details | tableau d’objet | Les paires d’ID individuels de liste de blocage et si elles ont entraîné une action de filtrage. | Non | |
| filtered | booléen | Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. | Oui |
AzureContentFilterCompletionTextSpan
Une représentation d’un segment de texte d'achèvement tel qu’utilisé par Azure OpenAI pour les résultats du filtre de contenu.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| completion_end_offset | entier | Décalage du premier code de caractère UTF32 exclu de l’étendue. Ce champ est toujours égal à completion_start_offset pour les étendues vides. Ce champ est toujours supérieur à completion_start_offset pour les étendues non vides. | Oui | |
| completion_start_offset | entier | Décalage du code de caractère UTF32 qui commence l’étendue. | Oui |
AzureContentFilterCompletionTextSpanDetectionResult
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| details | tableau d’AzureContentFilterCompletionTextSpan | Des informations détaillées sur les segments de texte détectés lors de l’achèvement. | Oui | |
| détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| filtered | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui |
AzureContentFilterCustomTopicIdResult
Élément de résultat de filtre de contenu qui associe un ID de rubrique personnalisé existant à une valeur indiquant si la rubrique correspondante a entraîné la détection du contenu.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| détecté | booléen | Indique si la rubrique personnalisée associée a entraîné la détection du contenu. | Oui | |
| id | ficelle | ID de la rubrique personnalisée associée à l’état détecté. | Oui |
AzureContentFilterCustomTopicResult
Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| details | tableau d’objet | Paires d’ID de rubriques individuelles et détections. | Non | |
| filtered | booléen | Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. | Oui |
AzureContentFilterDetectionResult
Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| filtered | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui |
AzureContentFilterForResponsesAPI
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Bloqué | booléen | Indiquez si la réponse est bloquée. | Oui | |
| content_filter_offsets | AzureContentFilterResultOffsets | Oui | ||
| content_filter_results | AzureContentFilterResultsForResponsesAPI | Oui | ||
| └─ listes_de_bloc_personnalisées | AzureContentFilterBlocklistResult | Collection de résultats de filtrage binaire pour les listes de blocs personnalisées configurées. | Non | |
| └custom_topics | AzureContentFilterCustomTopicResult | Collection de résultats de filtrage binaire pour les rubriques personnalisées configurées. | Non | |
| Erreur └ ; | objet | S’ils sont présents, des détails sur une erreur qui empêche le filtrage du contenu de finaliser son évaluation. | Non | |
| └─ Code | entier | Code distinct lisible par l’ordinateur associé à l’erreur. | Oui | |
| └─ Message | ficelle | Message lisible par l’homme associé à l’erreur. | Oui | |
| └─ haine | AzureContentFilterSeverityResult | Catégorie de filtre de contenu qui peut faire référence à n’importe quel contenu qui attaque ou utilise des données dimensionnelles ou discriminatoires langue faisant référence à une personne ou à un groupe d’identités en fonction de certains attributs de différenciation de ces groupes y compris, mais pas limité à la race, l’ethnicité, la nationalité, l’identité de genre et l’expression, l’orientation sexuelle, religion, statut d’immigration, statut de capacité, apparence personnelle et taille du corps. |
Non | |
| └─ attaque_indirecte | AzureContentFilterDetectionResult | Résultat de détection qui décrit les attaques sur les systèmes alimentés par des modèles IA génératifs qui peuvent se produire à chaque fois une application traite les informations qui n’ont pas été créées directement par le développeur de l’application ou utilisateur. |
Non | |
| └' jailbreak | AzureContentFilterDetectionResult | Résultat de détection qui décrit les attaques d’injection d’invite utilisateur, où les utilisateurs malveillants exploitent délibérément vulnérabilités système pour provoquer un comportement non autorisé à partir du LLM. Cela peut entraîner un contenu inapproprié génération ou violations des restrictions imposées par le système. |
Oui | |
| └personally_identifiable_information | AzureContentFilterPersonallyIdentifiableInformationResult | Résultat de détection qui décrit les correspondances avec les informations d’identification personnelle avec des sous-catégories configurables. | Non | |
| └> profanéité | AzureContentFilterDetectionResult | Résultat de détection qui identifie si le langage brut, vulgaire ou autre est présent dans la langue Contenu. |
Non | |
| └protected_material_code | objet | Résultat de détection qui décrit une correspondance avec le code sous licence ou d’autres documents sources protégés. | Non | |
| Citation └ ; | objet | Si disponibles, les détails de la citation qui décrivent la licence associée et son emplacement. | Non | |
| URL └─ | ficelle | URL associée à la licence. | Non | |
| └─ licence | ficelle | Nom ou identificateur de la licence associée à la détection. | Non | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| └protected_material_text | AzureContentFilterDetectionResult | Résultat de détection qui décrit une correspondance avec le texte protégé sous le droit d’auteur ou un autre état. | Non | |
| └─ automutilation | AzureContentFilterSeverityResult | Catégorie de filtre de contenu qui décrit la langue liée aux actions physiques destinées à blesser, blesser, endommager son corps ou se tuer. |
Non | |
| └─ sexuelle | AzureContentFilterSeverityResult | Catégorie de filtre de contenu pour la langue liée aux organes anatomiques et aux organes génitaux, relations romantiques, actes représentées en termes érotiques ou affectueux, grossesse, actes sexuels physiques, y compris ceux présentés comme un agression ou acte violent sexuel forcé contre la volonté, la prostitution, la pornographie et l’abus. |
Non | |
| └task_adherence | AzureContentFilterDetectionResult | Résultat de détection qui indique si le flux d’exécution reste fidèle au plan. | Oui | |
| └ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | Non | ||
| └' violence | AzureContentFilterSeverityResult | Catégorie de filtre de contenu pour la langue liée aux actions physiques destinées à blesser, blesser, endommager ou tuer quelqu’un ou quelque chose ; décrit les armes, les armes à feu et les entités connexes, telles que les fabrications, les associations, législation, et ainsi de suite. |
Non | |
| source_type | ficelle | Nom du type source du message. | Oui |
AzureContentFilterHarmExtensions
Extensions pour les catégories de préjudices, fournissant des options de configuration supplémentaires.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| pii_sub_categories | tableau d’AzurePiiSubCategory | Configuration pour PIIHarmSubCategory(s). | Non |
AzureContentFilterImagePromptResults
Résultat d’un filtre de contenu pour le contenu de la demande d’entrée d’une opération de génération d’image.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| custom_blocklists | AzureContentFilterBlocklistResult | Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées. | Non | |
| └─ détails | tableau d’objet | Les paires d’ID individuels de liste de blocage et si elles ont entraîné une action de filtrage. | Non | |
| └> filtré | booléen | Valeur indiquant si la liste de blocs a produit une action de filtrage. | Oui | |
| └─ identifiant | ficelle | ID de la liste de blocs personnalisée évaluée. | Oui | |
| └> filtré | booléen | Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. | Oui | |
| custom_topics | AzureContentFilterCustomTopicResult | Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées. | Non | |
| └─ détails | tableau d’objet | Paires d’ID de rubriques individuelles et détections. | Non | |
| └─ détecté | booléen | Valeur indiquant si la rubrique est détectée. | Oui | |
| └─ identifiant | ficelle | ID de la rubrique personnalisée évaluée. | Oui | |
| └> filtré | booléen | Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. | Oui | |
| haine | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| jailbreak | AzureContentFilterDetectionResult | Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. |
Oui | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| profanité | AzureContentFilterDetectionResult | Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. |
Non | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| self_harm | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| sexuel | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| violence | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui |
AzureContentFilterImageResponseResults
Résultat d’un filtre de contenu pour le contenu de réponse de sortie d’une opération de génération d’image.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| haine | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| self_harm | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| sexuel | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| violence | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui |
AzureContentFilterPersonallyIdentifiableInformationResult
Résultat de détection de filtre de contenu pour les informations d’identification personnelle qui inclut des extensions de préjudice.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| filtered | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| redacted_text | ficelle | Texte expurgé avec des informations d’identification personnelle supprimées ou masquées. | Non | |
| sub_categories | tableau d’AzurePiiSubCategoryResult | Résultats détaillés pour une ou plusieurs PIIHarmSubCategory. | Non |
AzureContentFilterResultForChoice
Résultat d’un filtre de contenu pour un élément de réponse unique produit par un système d’INTELLIGENCE artificielle générative.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| custom_blocklists | AzureContentFilterBlocklistResult | Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées. | Non | |
| └─ détails | tableau d’objet | Les paires d’ID individuels de liste de blocage et si elles ont entraîné une action de filtrage. | Non | |
| └> filtré | booléen | Valeur indiquant si la liste de blocs a produit une action de filtrage. | Oui | |
| └─ identifiant | ficelle | ID de la liste de blocs personnalisée évaluée. | Oui | |
| └> filtré | booléen | Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. | Oui | |
| custom_topics | AzureContentFilterCustomTopicResult | Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées. | Non | |
| └─ détails | tableau d’objet | Paires d’ID de rubriques individuelles et détections. | Non | |
| └─ détecté | booléen | Valeur indiquant si la rubrique est détectée. | Oui | |
| └─ identifiant | ficelle | ID de la rubrique personnalisée évaluée. | Oui | |
| └> filtré | booléen | Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. | Oui | |
| erreur | objet | S’ils sont présents, des détails sur une erreur qui empêche le filtrage du contenu de finaliser son évaluation. | Non | |
| └─ Code | entier | Code distinct lisible par l’ordinateur associé à l’erreur. | Oui | |
| └─ Message | ficelle | Message lisible par l’homme associé à l’erreur. | Oui | |
| haine | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| personally_identifiable_information | AzureContentFilterPersonallyIdentifiableInformationResult | Résultat de détection de filtre de contenu pour les informations d’identification personnelle qui inclut des extensions de préjudice. | Non | |
| └redacted_text | ficelle | Texte expurgé avec des informations d’identification personnelle supprimées ou masquées. | Non | |
| └─ sub-catégories | tableau d’AzurePiiSubCategoryResult | Résultats détaillés pour une ou plusieurs PIIHarmSubCategory. | Non | |
| profanité | AzureContentFilterDetectionResult | Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. |
Non | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| protected_material_code | objet | Résultat de détection qui décrit une correspondance avec le code sous licence ou d’autres documents sources protégés. | Non | |
| Citation └ ; | objet | Si disponibles, les détails de la citation qui décrivent la licence associée et son emplacement. | Non | |
| URL └─ | ficelle | URL associée à la licence. | Non | |
| └─ licence | ficelle | Nom ou identificateur de la licence associée à la détection. | Non | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| protected_material_text | AzureContentFilterDetectionResult | Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. |
Non | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| self_harm | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| sexuel | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | Non | ||
| violence | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui |
AzureContentFilterResultForPrompt
Résultat d’un filtre de contenu associé à un seul élément de requête d’entrée dans un système d’IA générative.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| content_filter_results | objet | Les détails de la catégorie de filtre de contenu pour le résultat. | Non | |
| └─ listes_de_bloc_personnalisées | AzureContentFilterBlocklistResult | Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées. | Non | |
| └─ détails | tableau d’objet | Les paires d’ID individuels de liste de blocage et si elles ont entraîné une action de filtrage. | Non | |
| └> filtré | booléen | Valeur indiquant si la liste de blocs a produit une action de filtrage. | Oui | |
| └─ identifiant | ficelle | ID de la liste de blocs personnalisée évaluée. | Oui | |
| └> filtré | booléen | Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. | Oui | |
| └custom_topics | AzureContentFilterCustomTopicResult | Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées. | Non | |
| └─ détails | tableau d’objet | Paires d’ID de rubriques individuelles et détections. | Non | |
| └─ détecté | booléen | Valeur indiquant si la rubrique est détectée. | Oui | |
| └─ identifiant | ficelle | ID de la rubrique personnalisée évaluée. | Oui | |
| └> filtré | booléen | Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. | Oui | |
| Erreur └ ; | objet | S’ils sont présents, des détails sur une erreur qui empêche le filtrage du contenu de finaliser son évaluation. | Non | |
| └─ Code | entier | Code distinct lisible par l’ordinateur associé à l’erreur. | Oui | |
| └─ Message | ficelle | Message lisible par l’homme associé à l’erreur. | Oui | |
| └─ haine | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| └─ attaque_indirecte | AzureContentFilterDetectionResult | Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. |
Oui | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| └' jailbreak | AzureContentFilterDetectionResult | Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. |
Oui | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| └> profanéité | AzureContentFilterDetectionResult | Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. |
Non | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ automutilation | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| └─ sexuelle | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| └' violence | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| prompt_index | entier | L’index de la requête d’entrée associée aux catégories associées de résultats du filtre de contenu. | Non |
AzureContentFilterResultOffsets
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| check_offset | entier | Oui | ||
| end_offset | entier | Oui | ||
| start_offset | entier | Oui |
AzureContentFilterResultsForResponsesAPI
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| custom_blocklists | AzureContentFilterBlocklistResult | Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées. | Non | |
| └─ détails | tableau d’objet | Les paires d’ID individuels de liste de blocage et si elles ont entraîné une action de filtrage. | Non | |
| └> filtré | booléen | Valeur indiquant si la liste de blocs a produit une action de filtrage. | Oui | |
| └─ identifiant | ficelle | ID de la liste de blocs personnalisée évaluée. | Oui | |
| └> filtré | booléen | Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. | Oui | |
| custom_topics | AzureContentFilterCustomTopicResult | Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées. | Non | |
| └─ détails | tableau d’objet | Paires d’ID de rubriques individuelles et détections. | Non | |
| └─ détecté | booléen | Valeur indiquant si la rubrique est détectée. | Oui | |
| └─ identifiant | ficelle | ID de la rubrique personnalisée évaluée. | Oui | |
| └> filtré | booléen | Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. | Oui | |
| erreur | objet | S’ils sont présents, des détails sur une erreur qui empêche le filtrage du contenu de finaliser son évaluation. | Non | |
| └─ Code | entier | Code distinct lisible par l’ordinateur associé à l’erreur. | Oui | |
| └─ Message | ficelle | Message lisible par l’homme associé à l’erreur. | Oui | |
| haine | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| indirect_attack | AzureContentFilterDetectionResult | Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. |
Non | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| jailbreak | AzureContentFilterDetectionResult | Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. |
Oui | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| personally_identifiable_information | AzureContentFilterPersonallyIdentifiableInformationResult | Résultat de détection de filtre de contenu pour les informations d’identification personnelle qui inclut des extensions de préjudice. | Non | |
| └redacted_text | ficelle | Texte expurgé avec des informations d’identification personnelle supprimées ou masquées. | Non | |
| └─ sub-catégories | tableau d’AzurePiiSubCategoryResult | Résultats détaillés pour une ou plusieurs PIIHarmSubCategory. | Non | |
| profanité | AzureContentFilterDetectionResult | Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. |
Non | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| protected_material_code | objet | Résultat de détection qui décrit une correspondance avec le code sous licence ou d’autres documents sources protégés. | Non | |
| Citation └ ; | objet | Si disponibles, les détails de la citation qui décrivent la licence associée et son emplacement. | Non | |
| URL └─ | ficelle | URL associée à la licence. | Non | |
| └─ licence | ficelle | Nom ou identificateur de la licence associée à la détection. | Non | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| protected_material_text | AzureContentFilterDetectionResult | Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. |
Non | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| self_harm | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| sexuel | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui | |
| task_adherence | AzureContentFilterDetectionResult | Un élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. |
Oui | |
| └─ détecté | booléen | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| └> filtré | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Oui | |
| ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | Non | ||
| violence | AzureContentFilterSeverityResult | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quelle est la qualité niveau de gravité du contenu, tel qu’évalué par rapport à la configuration du filtre de contenu pour la catégorie. |
Non | |
| └> filtré | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| └─ Sévérité | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui |
AzureContentFilterSeverityResult
Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| filtered | booléen | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Oui | |
| severity | enum | La gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Oui |
AzureFileExpiryAnchor
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | created_at |
AzureFineTuneReinforcementMethod
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| outil de notation | OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint | Oui | ||
| hyperparameters | OpenAI.FineTuneReinforcementHyperparameters | Les hyperparamètres utilisés pour le travail d’ajustement du renforcement. | Non | |
| format_de_réponse | ResponseFormatJSONSchemaRequest | Non | ||
| └ json_schema | objet | Schéma JSON pour le format de réponse | Oui | |
| └─ Type | enum | Type de format de réponse Valeurs possibles : json_schema |
Oui |
AzurePiiSubCategory
Configuration de piIHarmSubCategory(s) individuelle au sein de l’infrastructure d’extensions de préjudice.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| détecter | booléen | Indique si la détection est activée pour cette sous-catégorie. | Oui | |
| Filter | booléen | Indique si le contenu contenant cette sous-catégorie doit être bloqué. | Oui | |
| react | booléen | Indique si le contenu contenant cette sous-catégorie doit être supprimé. | Oui | |
| sub_category | ficelle | PiIHarmSubCategory en cours de configuration. | Oui |
AzurePiiSubCategoryResult
Détails des résultats pour une ou plusieurs PIIHarmSubCategory.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| détecté | booléen | Indique si la sous-catégorie de contenu étiquetée a été détectée dans le contenu. | Oui | |
| filtered | booléen | Indique si la détection de contenu a entraîné une action de filtrage de contenu pour cette sous-catégorie. | Oui | |
| redacted | booléen | Indique si le contenu a été expurgé pour cette sous-catégorie. | Oui | |
| sub_category | ficelle | PIIHarmSubCategory qui a été évaluée. | Oui |
AzureResponsesSamplingParams
Paramètres d’échantillonnage pour contrôler le comportement des réponses.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| nombre_maximal_de_tokens | entier | Nombre maximal de jetons dans la sortie générée. | Non | |
| effort de raisonnement | OpenAI.ReasoningEffort | Limite l’effort sur le raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduirel’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés le raisonnement dans une réponse. - gpt-5.1
nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max. |
Non | |
| seed | entier | Une valeur initiale initialise la randomité pendant l’échantillonnage. | Non | 42 |
| température | nombre | Une température plus élevée augmente l'aléa des résultats. | Non | 1 |
| texte | OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText | Non | ||
| outils | tableau d’OpenAI.Tool | Non | ||
| top_p | nombre | Alternative à la température pour l'échantillonnage de noyau ; 1.0 inclut tous les éléments. | Non | 1 |
AzureUserSecurityContext
Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application elle-même et l’utilisateur final qui interagit avec l’application. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Learn plus sur la protection des applications IA à l’aide de Microsoft Defender for Cloud.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| application_name | ficelle | Le nom de l’application. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. | Non | |
| end_user_id | ficelle | Cet identificateur est l’ID d’objet utilisateur Microsoft Entra ID (anciennement Azure Active Directory) utilisé pour authentifier les utilisateurs finaux dans l’application IA générative. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. | Non | |
| end_user_tenant_id | ficelle | L’ID de locataire Microsoft 365 auquel appartient l’utilisateur final. Il est nécessaire lorsque l’application IA générative est multi-tenant. | Non | |
| source_ip | ficelle | Capture l’adresse IP du client d’origine. | Non |
CopiedAccountDetails
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| destinationResourceId | ficelle | ID de la ressource de destination vers laquelle le modèle a été copié. | Oui | |
| region | ficelle | Région dans laquelle le modèle a été copié. | Oui | |
| status | enum | État de l’opération de copie. Valeurs possibles : Completed, , FailedInProgress |
Oui |
CopyModelRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| destinationResourceId | ficelle | ID de la ressource de destination à copier. | Oui | |
| region | ficelle | Région vers laquelle copier le modèle. | Oui |
CopyModelResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| checkpointedModelName | ficelle | ID du modèle copié. | Oui | |
| copiedAccountDetails | tableau de CopiedAccountDetails | ID de la ressource de destination où il a été copié. | Oui | |
| fineTuningJobId | ficelle | ID du travail de fine-tuning à partir duquel le point de contrôle a été copié. | Oui |
CreateVideoBody
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| modèle | ficelle | Nom du déploiement à utiliser pour cette demande. | Oui | |
| prompt | ficelle | Invite de texte qui décrit la vidéo à générer. Contraintes : minLength : 1 |
Oui | |
| secondes | VideoSeconds | Durées de clip prises en charge, mesurées en secondes. | Non | 4 |
| taille | VideoSize | Dimensions de sortie mises en forme en tant que {width}x{height}. |
Non | 720x1280 |
CreateVideoBodyWithInputReference
Propriétés d’une demande de travail de génération vidéo avec des fichiers multimédias.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| input_reference | objet | Référence d’image facultative qui guide la génération. | Oui | |
| modèle | objet | Nom du déploiement à utiliser pour cette demande. | Oui | |
| prompt | objet | Invite de texte qui décrit la vidéo à générer. | Oui | |
| secondes | objet | Durée du clip en secondes. La valeur par défaut est de 4 secondes. | Non | |
| taille | objet | Résolution de sortie mise en forme sous forme de largeur x hauteur. La valeur par défaut est 720x1280. | Non |
CreateVideoRemixBody
Paramètres pour remixer une vidéo générée existante.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| prompt | ficelle | Invite de texte mise à jour qui dirige la génération de remix. Contraintes : minLength : 1 |
Oui |
DeletedVideoResource
Charge utile de confirmation retournée après la suppression d’une vidéo.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| supprimé | booléen | Indique que la ressource vidéo a été supprimée. | Oui | Vrai |
| id | ficelle | Identificateur de la vidéo supprimée. | Oui | |
| objet | ficelle | Type d’objet qui signale la réponse de suppression. | Oui | video.deleted |
Error
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code | ficelle | Oui | ||
| message | ficelle | Oui |
EvalGraderEndpoint
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| headers | objet ou null | En-têtes HTTP facultatifs à inclure dans les requêtes adressées au point de terminaison | Non | |
| nom | ficelle | Nom du classateur | Oui | |
| seuil de passage | nombre ou null | Score de seuil facultatif au-dessus duquel la note est considérée comme passant Si ce n’est pas spécifié, tous les scores sont considérés comme valides |
Non | |
| rate_limit | entier ou null | Limite de débit facultative pour les requêtes par seconde au point de terminaison Doit être un entier positif |
Non | |
| type | enum | Valeurs possibles : endpoint |
Oui | |
| url | ficelle | URL HTTPS du point de terminaison à appeler pour la notation Contraintes : modèle : ^https:// |
Oui |
GraderEndpoint
Configuration du gradeur de point de terminaison pour l’évaluation du point de terminaison HTTP externe
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| headers | objet ou null | En-têtes HTTP facultatifs à inclure dans les requêtes adressées au point de terminaison | Non | |
| nom | ficelle | Nom du classateur | Oui | |
| seuil de passage | nombre ou null | Score de seuil facultatif au-dessus duquel la note est considérée comme passant Si ce n’est pas spécifié, tous les scores sont considérés comme valides |
Non | |
| rate_limit | entier ou null | Limite de débit facultative pour les requêtes par seconde au point de terminaison Doit être un entier positif |
Non | |
| type | enum | Valeurs possibles : endpoint |
Oui | |
| url | ficelle | URL HTTPS du point de terminaison à appeler pour la notation Contraintes : modèle : ^https:// |
Oui |
OpenAI.Annotation
Annotation qui s’applique à une étendue de texte de sortie.
Discriminant pour OpenAI.Annotation
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
file_citation |
OpenAI.FileCitationBody |
url_citation |
OpenAI.UrlCitationBody |
container_file_citation |
OpenAI.ContainerFileCitationBody |
file_path |
OpenAI.FilePath |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.AnnotationType | Oui |
OpenAI.AnnotationType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | file_citationurl_citationcontainer_file_citationfile_path |
OpenAI.ApplyPatchCallOutputStatus
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | completedfailed |
OpenAI.ApplyPatchCallStatus
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | in_progresscompleted |
OpenAI.ApplyPatchCreateFileOperation
Instructions décrivant comment créer un fichier via l’outil apply_patch.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Diff | ficelle | Différences à appliquer. | Oui | |
| chemin | ficelle | Chemin d’accès du fichier à créer. | Oui | |
| type | enum | Créez un fichier avec le diff fourni. Valeurs possibles : create_file |
Oui |
OpenAI.ApplyPatchDeleteFileOperation
Instructions décrivant comment supprimer un fichier via l’outil apply_patch.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| chemin | ficelle | Chemin d’accès du fichier à supprimer. | Oui | |
| type | enum | Supprimez le fichier spécifié. Valeurs possibles : delete_file |
Oui |
OpenAI.ApplyPatchFileOperation
Une des opérations create_file, delete_file ou update_file appliquées via apply_patch.
Discriminateur pour OpenAI.ApplyPatchFileOperation
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
create_file |
OpenAI.ApplyPatchCreateFileOperation |
delete_file |
OpenAI.ApplyPatchDeleteFileOperation |
update_file |
OpenAI.ApplyPatchUpdateFileOperation |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.ApplyPatchFileOperationType | Oui |
OpenAI.ApplyPatchFileOperationType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | create_filedelete_fileupdate_file |
OpenAI.ApplyPatchToolParam
Permet à l’assistant de créer, supprimer ou mettre à jour des fichiers en utilisant des diffs unifiées.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Type de l’outil. A toujours la valeur apply_patch.Valeurs possibles : apply_patch |
Oui |
OpenAI.ApplyPatchUpdateFileOperation
Instructions décrivant comment mettre à jour un fichier via l’outil apply_patch.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Diff | ficelle | Différences à appliquer. | Oui | |
| chemin | ficelle | Chemin d’accès du fichier à mettre à jour. | Oui | |
| type | enum | Mettez à jour un fichier existant avec le diff fourni. Valeurs possibles : update_file |
Oui |
OpenAI.ApproximateLocation
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| city | chaîne ou nulle | Non | ||
| country | chaîne ou nulle | Non | ||
| region | chaîne ou nulle | Non | ||
| timezone | chaîne ou nulle | Non | ||
| type | enum | Le type d’approximation de la localisation. A toujours la valeur approximate.Valeurs possibles : approximate |
Oui |
OpenAI.AssistantTool
Discriminateur pour OpenAI.AssistantTool
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
code_interpreter |
OpenAI.AssistantToolsCode |
file_search |
OpenAI.AssistantToolsFileSearch |
function |
OpenAI.AssistantToolsFunction |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.AssistantToolType | Oui |
OpenAI.AssistantToolType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | code_interpreterfile_searchfunction |
OpenAI.AssistantToolsCode
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Le type d’outil défini : code_interpreterValeurs possibles : code_interpreter |
Oui |
OpenAI.AssistantToolsFileSearch
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| file_search | OpenAI.AssistantToolsFileSearchFileSearch | Non | ||
| └─ max_nombre_de_résultats | entier | Contraintes : min : 1, max : 50 | Non | |
| └ranking_options | OpenAI.FileSearchRankingOptions | Options de classement pour la recherche de fichiers. S’il n’est pas spécifié, l’outil de recherche de fichiers utilise le auto ranker et une score_threshold de 0.Pour plus d’informations, consultez la documentation de l’outil de recherche de fichiers . |
Non | |
| type | enum | Le type d’outil défini : file_searchValeurs possibles : file_search |
Oui |
OpenAI.AssistantToolsFileSearchFileSearch
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| nombre_maximal_de_résultats | entier | Contraintes : min : 1, max : 50 | Non | |
| options_de_classement | OpenAI.FileSearchRankingOptions | Options de classement pour la recherche de fichiers. S’il n’est pas spécifié, l’outil de recherche de fichiers utilise le auto ranker et une score_threshold de 0.Pour plus d’informations, consultez la documentation de l’outil de recherche de fichiers . |
Non |
OpenAI.AssistantToolsFileSearchTypeOnly
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Le type d’outil défini : file_searchValeurs possibles : file_search |
Oui |
OpenAI.AssistantToolsFunction
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| function | OpenAI.FunctionObject | Oui | ||
| type | enum | Le type d’outil défini : functionValeurs possibles : function |
Oui |
OpenAI.AssistantsApiResponseFormatOption
Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.
Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. Apprenez-en davantage dans le paramètre pour { "type": "json_object" } activer le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.
Important :* lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Type : string ou OpenAI.ResponseFormatText ou OpenAI.ResponseFormatJsonObject ou OpenAI.ResponseFormatJsonSchema
Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.
Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. Apprenez-en davantage dans le paramètre pour { "type": "json_object" } activer le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.
Important :* lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
OpenAI.AssistantsApiToolChoiceOption
Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils avant de répondre à l’utilisateur.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Type : string ou OpenAI.AssistantsNamedToolChoice
Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils avant de répondre à l’utilisateur.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
OpenAI.AssistantsNamedToolChoice
Spécifie un outil que le modèle doit utiliser. Utilisez-le pour forcer le modèle à appeler un outil spécifique.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| function | OpenAI.AssistantsNamedToolChoiceFunction | Non | ||
| type | enum | Type de l’outil. Si le type est function, le nom de la fonction doit être définiValeurs possibles : function, , code_interpreterfile_search |
Oui |
OpenAI.AssistantsNamedToolChoiceFunction
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| nom | ficelle | Oui |
OpenAI.AudioTranscription
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| language | ficelle | La langue de l’audio d’entrée. Fourniture de la langue d’entrée dans Format ISO-639-1 (par exemple en)améliore la précision et la latence. |
Non | |
| modèle | ficelle | Modèle à utiliser pour la transcription. Les options actuelles sont whisper-1, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeet gpt-4o-transcribe-diarize. Utilisez gpt-4o-transcribe-diarize quand vous avez besoin d’une diarisation avec des étiquettes d’orateur. |
Non | |
| prompt | ficelle | Texte facultatif pour guider le style du modèle ou continuer un audio précédent Segment. Pour whisper-1, l’invite est une liste de mots clés.Pour gpt-4o-transcribe les modèles (à l’exclusion gpt-4o-transcribe-diarize), l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ». |
Non |
OpenAI.AutoChunkingStrategyRequestParam
Stratégie par défaut. Cette stratégie utilise actuellement un max_chunk_size_tokens de 800 et chunk_overlap_tokens de 400.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | A toujours la valeur auto.Valeurs possibles : auto |
Oui |
OpenAI.Batch
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| cancelled_at | entier | Horodatage Unix (en secondes) pour lequel le lot a été annulé. | Non | |
| cancelling_at | entier | Horodatage Unix (en secondes) pour le démarrage de l’annulation du lot. | Non | |
| terminé_à | entier | Horodatage Unix (en secondes) pour la fin du lot. | Non | |
| fenêtre de finalisation | ficelle | Le délai d’exécution pendant lequel le lot doit être traité. | Oui | |
| date_de_création | entier | Horodatage Unix (en secondes) pour lequel le lot a été créé. | Oui | |
| endpoint | ficelle | Point de terminaison de l’API OpenAI utilisé par le lot. | Oui | |
| error_file_id | ficelle | ID du fichier contenant les sorties des requêtes avec des erreurs. | Non | |
| Erreurs | OpenAI.BatchErrors | Non | ||
| expired_at | entier | Horodatage Unix (en secondes) pour le moment où le lot a expiré. | Non | |
| expires_at | entier | Horodatage Unix (en secondes) pour l’expiration du lot. | Non | |
| failed_at | entier | Horodatage Unix (en secondes) pour lequel le lot a échoué. | Non | |
| finalizing_at | entier | Horodatage Unix (en secondes) pour le moment où le lot a commencé à finaliser. | Non | |
| id | ficelle | Oui | ||
| in_progress_at | entier | Horodatage Unix (en secondes) pour le traitement du traitement par lot. | Non | |
| input_file_id | chaîne ou nulle | Non | ||
| metadata | OpenAI.Metadata ou null | Non | ||
| modèle | ficelle | ID de modèle utilisé pour traiter le lot, par exemple gpt-5-2025-08-07. OpenAIoffre un large éventail de modèles avec différentes fonctionnalités, performances caractéristiques et points de prix. Reportez-vous au modèle guide pour parcourir et comparer les modèles disponibles. |
Non | |
| objet | enum | Le type d’objet, qui est toujours batch.Valeurs possibles : batch |
Oui | |
| identifiant_de_fichier_de_sortie | ficelle | ID du fichier contenant les sorties des requêtes exécutées avec succès. | Non | |
| nombre_de_requêtes | OpenAI.BatchRequestCounts | La requête compte pour différents états au sein du lot. | Non | |
| status | enum | État actuel du lot. Valeurs possibles : validating, , failed, in_progressfinalizingcompletedexpired, , cancellingcancelled |
Oui | |
| usage | OpenAI.BatchUsage | Non | ||
| └input_tokens | entier | Oui | ||
| └ détails_des_jets_d'entrée | OpenAI.BatchUsageInputTokensDetails | Oui | ||
| └output_tokens | entier | Oui | ||
| └output_tokens_details | OpenAI.BatchUsageOutputTokensDetails | Oui | ||
| └total_tokens | entier | Oui |
OpenAI.BatchError
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code | ficelle | Un code d’erreur identifiant le type d’erreur. | Non | |
| line | entier ou null | Non | ||
| message | ficelle | Un message lisible par une personne, fournissant plus de détails sur l’erreur. | Non | |
| param | chaîne ou nulle | Non |
OpenAI.BatchErrors
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.BatchError | Non | ||
| objet | ficelle | Non |
OpenAI.BatchRequestCounts
La requête compte pour différents états au sein du lot.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| terminé | entier | Nombre de demandes qui ont été effectuées avec succès. | Oui | |
| a échoué | entier | Nombre de requêtes ayant échoué. | Oui | |
| total | entier | Nombre total de requêtes dans le lot. | Oui |
OpenAI.BatchUsage
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| input_tokens | entier | Oui | ||
| input_tokens_details | OpenAI.BatchUsageInputTokensDetails | Oui | ||
| output_tokens | entier | Oui | ||
| output_tokens_details | OpenAI.BatchUsageOutputTokensDetails | Oui | ||
| total_tokens | entier | Oui |
OpenAI.BatchUsageInputTokensDetails
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| cached_tokens | entier | Oui |
OpenAI.BatchUsageOutputTokensDetails
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| jetons_de_raisonnement | entier | Oui |
OpenAI.ChatCompletionAllowedTools
Limite les outils disponibles pour le modèle à un ensemble prédéfini.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| mode | enum | Limite les outils disponibles pour le modèle à un ensemble prédéfini.auto permet au modèle de choisir parmi les outils autorisés et de générer un. required nécessite que le modèle appelle un ou plusieurs des outils autorisés.Valeurs possibles : auto, required |
Oui | |
| outils | tableau d’objet | Liste des définitions d’outils que le modèle doit être autorisé à appeler. Pour l’API De saisie semi-automatique de conversation, la liste des définitions d’outils peut ressembler à ceci : json<br> [<br> { "type": "function", "function": { "name": "get_weather" } },<br> { "type": "function", "function": { "name": "get_time" } }<br> ]<br> |
Oui |
OpenAI.ChatCompletionAllowedToolsChoice
Limite les outils disponibles pour le modèle à un ensemble prédéfini.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| outils_autorisés | OpenAI.ChatCompletionAllowedTools | Limite les outils disponibles pour le modèle à un ensemble prédéfini. | Oui | |
| type | enum | Type de configuration d’outil autorisé. A toujours la valeur allowed_tools.Valeurs possibles : allowed_tools |
Oui |
OpenAI.ChatCompletionFunctionCallOption
La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| nom | ficelle | Nom de la fonction à appeler. | Oui |
OpenAI.ChatCompletionFunctions
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| descriptif | ficelle | Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | Non | |
| nom | ficelle | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | Oui | |
| paramètres | OpenAI.FunctionParameters | Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Voir le guide pour des exemples, et la référence JSON Schema pour la documentation sur le format. L’omission de parameters définit une fonction avec une liste de paramètres vide. |
Non |
OpenAI.ChatCompletionMessageCustomToolCall
Un appel à un outil personnalisé créé par le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| coutume | OpenAI.ChatCompletionMessageCustomToolCallCustom | Oui | ||
| └─ Entrée | ficelle | Oui | ||
| └─ Nom | ficelle | Oui | ||
| id | ficelle | ID de l’appel de l’outil. | Oui | |
| type | enum | Type de l’outil. A toujours la valeur custom.Valeurs possibles : custom |
Oui |
OpenAI.ChatCompletionMessageCustomToolCallCustom
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| entrée | ficelle | Oui | ||
| nom | ficelle | Oui |
OpenAI.ChatCompletionMessageToolCall
Appel à un outil de fonction créé par le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| function | OpenAI.ChatCompletionMessageToolCallFunction | Oui | ||
| └─ Arguments | ficelle | Oui | ||
| └─ Nom | ficelle | Oui | ||
| id | ficelle | ID de l’appel de l’outil. | Oui | |
| type | enum | Type de l’outil. Actuellement, seule function est prise en charge.Valeurs possibles : function |
Oui |
OpenAI.ChatCompletionMessageToolCallChunk
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| function | OpenAI.ChatCompletionMessageToolCallChunkFunction | Non | ||
| id | ficelle | ID de l’appel de l’outil. | Non | |
| index | entier | Oui | ||
| type | enum | Type de l’outil. Actuellement, seule function est prise en charge.Valeurs possibles : function |
Non |
OpenAI.ChatCompletionMessageToolCallChunkFunction
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| arguments | ficelle | Non | ||
| nom | ficelle | Non |
OpenAI.ChatCompletionMessageToolCallFunction
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| arguments | ficelle | Oui | ||
| nom | ficelle | Oui |
OpenAI.ChatCompletionMessageToolCalls
Appels d’outils générés par le modèle, par exemple les appels de fonction.
OpenAI.ChatCompletionMessageToolCallsItem
Appels d’outils générés par le modèle, par exemple les appels de fonction.
OpenAI.ChatCompletionNamedToolChoice
Spécifie un outil que le modèle doit utiliser. Utilisez-le pour forcer le modèle à appeler une fonction spécifique.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| function | OpenAI.ChatCompletionNamedToolChoiceFunction | Oui | ||
| type | enum | Pour l’appel de fonction, le type est toujours function.Valeurs possibles : function |
Oui |
OpenAI.ChatCompletionNamedToolChoiceCustom
Spécifie un outil que le modèle doit utiliser. Permet de forcer le modèle à appeler un outil personnalisé spécifique.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| coutume | OpenAI.ChatCompletionNamedToolChoiceCustomCustom | Oui | ||
| type | enum | Pour les appels d’outils personnalisés, le type est toujours custom.Valeurs possibles : custom |
Oui |
OpenAI.ChatCompletionNamedToolChoiceCustomCustom
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| nom | ficelle | Oui |
OpenAI.ChatCompletionNamedToolChoiceFunction
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| nom | ficelle | Oui |
OpenAI.ChatCompletionRequestAssistantMessage
Messages envoyés par le modèle en réponse aux messages utilisateur.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| audio | OpenAI.ChatCompletionRequestAssistantMessageAudio ou null | Données relatives à une réponse audio précédente du modèle. | Non | |
| contenu | chaîne ou tableau d’OpenAI.ChatCompletionRequestAssistantMessageContentPart ou null | Non | ||
| function_call | OpenAI.ChatCompletionRequestAssistantMessageFunctionCall ou null | Non | ||
| nom | ficelle | Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. | Non | |
| refusal | chaîne ou nulle | Non | ||
| role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas assistant.Valeurs possibles : assistant |
Oui | |
| tool_calls | OpenAI.ChatCompletionMessageToolCalls | Appels d’outils générés par le modèle, par exemple les appels de fonction. | Non |
OpenAI.ChatCompletionRequestAssistantMessageAudio
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| id | ficelle | Oui |
OpenAI.ChatCompletionRequestAssistantMessageContentPart
Discriminateur pour OpenAI.ChatCompletionRequestAssistantMessageContentPart
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
refusal |
OpenAI.ChatCompletionRequestMessageContentPartRefusal |
text |
OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.ChatCompletionRequestAssistantMessageContentPartType | Oui |
OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText
Découvrez les entrées de texte.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Contenu du texte. | Oui | |
| type | enum | Le type de la partie contenu. Valeurs possibles : text |
Oui |
OpenAI.ChatCompletionRequestAssistantMessageContentPartType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | textrefusal |
OpenAI.ChatCompletionRequestAssistantMessageFunctionCall
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| arguments | ficelle | Oui | ||
| nom | ficelle | Oui |
OpenAI.ChatCompletionRequestDeveloperMessage
Instructions fournies par le développeur que le modèle doit suivre, quels que soient les messages envoyés par l’utilisateur. Avec les modèles o1 et versions ultérieures, les messages developer remplacent les messages system précédents.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | chaîne ou tableau d’OpenAI.ChatCompletionRequestMessageContentPartText | Contenu du message du développeur. | Oui | |
| nom | ficelle | Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. | Non | |
| role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas developer.Valeurs possibles : developer |
Oui |
OpenAI.ChatCompletionRequestFunctionMessage
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | chaîne ou nulle | Oui | ||
| nom | ficelle | Nom de la fonction à appeler. | Oui | |
| role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas function.Valeurs possibles : function |
Oui |
OpenAI.ChatCompletionRequestMessage
Discriminant pour OpenAI.ChatCompletionRequestMessage
Ce composant utilise la propriété role pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
assistant |
OpenAI.ChatCompletionRequestAssistantMessage |
developer |
OpenAI.ChatCompletionRequestDeveloperMessage |
function |
OpenAI.ChatCompletionRequestFunctionMessage |
system |
OpenAI.ChatCompletionRequestSystemMessage |
user |
OpenAI.ChatCompletionRequestUserMessage |
tool |
OpenAI.ChatCompletionRequestToolMessage |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| role | OpenAI.ChatCompletionRequestMessageType | Oui |
OpenAI.ChatCompletionRequestMessageContentPartAudio
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| input_audio | OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio | Oui | ||
| type | enum | Le type de la partie contenu. A toujours la valeur input_audio.Valeurs possibles : input_audio |
Oui |
OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | ficelle | Oui | ||
| format | enum | Valeurs possibles : wav, mp3 |
Oui |
OpenAI.ChatCompletionRequestMessageContentPartFile
Découvrez les entrées de fichier pour la génération de texte.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| fichier | OpenAI.ChatCompletionRequestMessageContentPartFileFile | Oui | ||
| └─ données_fichier | ficelle | Non | ||
| └ file_id | ficelle | Non | ||
| Nom de fichier └> | ficelle | Non | ||
| type | enum | Le type de la partie contenu. A toujours la valeur file.Valeurs possibles : file |
Oui |
OpenAI.ChatCompletionRequestMessageContentPartFileFile
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| file_data | ficelle | Non | ||
| identifiant_de_fichier | ficelle | Non | ||
| filename | ficelle | Non |
OpenAI.ChatCompletionRequestMessageContentPartImage
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| image_url | OpenAI.ChatCompletionRequestMessageContentPartImageUrl | Oui | ||
| type | enum | Le type de la partie contenu. Valeurs possibles : image_url |
Oui |
OpenAI.ChatCompletionRequestMessageContentPartImageUrl
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| detail | enum | Valeurs possibles : auto, , lowhigh |
Non | |
| url | ficelle | Oui |
OpenAI.ChatCompletionRequestMessageContentPartRefusal
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| refusal | ficelle | Message de refus généré par le modèle. | Oui | |
| type | enum | Le type de la partie contenu. Valeurs possibles : refusal |
Oui |
OpenAI.ChatCompletionRequestMessageContentPartText
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Contenu du texte. | Oui | |
| type | enum | Le type de la partie contenu. Valeurs possibles : text |
Oui |
OpenAI.ChatCompletionRequestMessageType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | developersystemuserassistanttoolfunction |
OpenAI.ChatCompletionRequestSystemMessage
Instructions fournies par le développeur que le modèle doit suivre, quels que soient les messages envoyés par l’utilisateur. Avec les modèles o1 et les versions ultérieures, utilisez les messages developer pour cet effet à la place.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | chaîne ou tableau d’OpenAI.ChatCompletionRequestSystemMessageContentPart | Contenu du message système. | Oui | |
| nom | ficelle | Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. | Non | |
| role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas system.Valeurs possibles : system |
Oui |
OpenAI.ChatCompletionRequestSystemMessageContentPart
Références : OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestToolMessage
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | chaîne ou tableau d’OpenAI.ChatCompletionRequestToolMessageContentPart | Contenu du message de l’outil. | Oui | |
| role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas tool.Valeurs possibles : tool |
Oui | |
| tool_call_id | ficelle | Appel d’outil auquel ce message répond. | Oui |
OpenAI.ChatCompletionRequestToolMessageContentPart
Références : OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestUserMessage
Messages envoyés par un utilisateur final, contenant des invites ou des informations de contexte supplémentaires.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | chaîne ou tableau d’OpenAI.ChatCompletionRequestUserMessageContentPart | Contenu du message de l’utilisateur. | Oui | |
| nom | ficelle | Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. | Non | |
| role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas user.Valeurs possibles : user |
Oui |
OpenAI.ChatCompletionRequestUserMessageContentPart
Discriminateur pour OpenAI.ChatCompletionRequestUserMessageContentPart
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.ChatCompletionRequestUserMessageContentPartType | Oui |
OpenAI.ChatCompletionRequestUserMessageContentPartChatCompletionRequestMessageContentPartText
Découvrez les entrées de texte.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Contenu du texte. | Oui | |
| type | enum | Le type de la partie contenu. Valeurs possibles : text |
Oui |
OpenAI.ChatCompletionRequestUserMessageContentPartType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | textimage_urlinput_audiofile |
OpenAI.ChatCompletionResponseMessage
Si la modalité de sortie audio est demandée, cet objet contient des données sur la réponse audio du modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| annotations | tableau d’OpenAI.ChatCompletionResponseMessageAnnotations | Annotations pour le message, le cas échéant, comme lors de l’utilisation de outil de recherche web. |
Non | |
| audio | OpenAI.ChatCompletionResponseMessageAudio ou null | Non | ||
| contenu | chaîne ou nulle | Oui | ||
| function_call | OpenAI.ChatCompletionResponseMessageFunctionCall | Non | ||
| └─ Arguments | ficelle | Oui | ||
| └─ Nom | ficelle | Oui | ||
| reasoning_content | ficelle | Propriété d’extension spécifique à Azure contenant le contenu de raisonnement généré à partir de modèles pris en charge. | Non | |
| refusal | chaîne ou nulle | Oui | ||
| role | enum | Rôle de l’auteur de ce message. Valeurs possibles : assistant |
Oui | |
| tool_calls | OpenAI.ChatCompletionMessageToolCallsItem | Appels d’outils générés par le modèle, par exemple les appels de fonction. | Non |
OpenAI.ChatCompletionResponseMessageAnnotations
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Valeurs possibles : url_citation |
Oui | |
| url_citation | OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation | Oui |
OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| end_index | entier | Oui | ||
| start_index | entier | Oui | ||
| title | ficelle | Oui | ||
| url | ficelle | Oui |
OpenAI.ChatCompletionResponseMessageAudio
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | ficelle | Oui | ||
| expires_at | entier | Oui | ||
| id | ficelle | Oui | ||
| transcription | ficelle | Oui |
OpenAI.ChatCompletionResponseMessageFunctionCall
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| arguments | ficelle | Oui | ||
| nom | ficelle | Oui |
OpenAI.ChatCompletionStreamOptions
Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| include_obfuscation | booléen | Lorsque la valeur est true, l’obfuscation de flux est activée. Ajouts d’obfuscation de flux caractères aléatoires sur un obfuscation champ sur les événements delta de diffusion en continu versnormalisez les tailles de charge utile en tant qu’atténuation de certaines attaques par canal latéral. Ces champs d’obfuscation sont inclus par défaut, mais ajoutent une petite quantité d’une surcharge sur le flux de données. Vous pouvez définir sur include_obfuscationfalse pour optimiser la bande passante si vous approuvez les liens réseau entre votre application et l’API OpenAI. |
Non | |
| include_usage | booléen | S’il est défini, un bloc supplémentaire sera diffusé en continu avant le data: [DONE]. Le usage champ sur ce bloc affiche les statistiques d’utilisation des jetonspour l’intégralité de la requête, et le choices champ sera toujours videun groupe. Tous les autres blocs incluent également un usage champ, mais avec une valeur Nullvaleur. NOTE: Si le flux est interrompu, il se peut que vous ne receviez pas tout. segment d’utilisation final qui contient l’utilisation totale du jeton pour la requête. |
Non |
OpenAI.ChatCompletionStreamResponseDelta
Delta de complétion de conversation généré par les réponses de modèle diffusées en continu.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | chaîne ou nulle | Non | ||
| function_call | OpenAI.ChatCompletionStreamResponseDeltaFunctionCall | Non | ||
| └─ Arguments | ficelle | Non | ||
| └─ Nom | ficelle | Non | ||
| reasoning_content | ficelle | Propriété d’extension spécifique à Azure contenant le contenu de raisonnement généré à partir de modèles pris en charge. | Non | |
| refusal | chaîne ou nulle | Non | ||
| role | enum | Rôle de l’auteur de ce message. Valeurs possibles : developer, , systemuser, assistant,tool |
Non | |
| tool_calls | tableau d’OpenAI.ChatCompletionMessageToolCallChunk | Non |
OpenAI.ChatCompletionStreamResponseDeltaFunctionCall
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| arguments | ficelle | Non | ||
| nom | ficelle | Non |
OpenAI.ChatCompletionTokenLogprob
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| octets | tableau d’entiers ou null | Oui | ||
| logprob | nombre | La probabilité de journalisation de ce jeton, s’il se trouve dans les 20 jetons les plus probables. Sinon, la valeur -9999.0 est utilisée pour indiquer que le jeton est très peu probable. |
Oui | |
| token | ficelle | Jeton. | Oui | |
| top_logprobs | tableau d’OpenAI.ChatCompletionTokenLogprobTopLogprobs | Liste des jetons les plus probables et de leur probabilité logarithmique, à cette position de jeton. Dans de rares cas, il peut y avoir moins que le nombre de top_logprobs demandées retournées. |
Oui |
OpenAI.ChatCompletionTokenLogprobTopLogprobs
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| octets | tableau d’entiers ou null | Oui | ||
| logprob | nombre | Oui | ||
| token | ficelle | Oui |
Outil de Complétion de Chat d'OpenAI
Outil de fonction qui peut être utilisé pour générer une réponse.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| function | OpenAI.FunctionObject | Oui | ||
| type | enum | Type de l’outil. Actuellement, seule function est prise en charge.Valeurs possibles : function |
Oui |
OpenAI.ChatCompletionToolChoiceOption
Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils.
La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
none est la valeur par défaut lorsqu’aucun outil n’est présent.
auto est la valeur par défaut si des outils sont présents.
Type : string ou OpenAI.ChatCompletionAllowedToolsChoice ou OpenAI.ChatCompletionNamedToolChoice ou OpenAI.ChatCompletionNamedToolChoiceCustom
Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils.
La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
none est la valeur par défaut lorsqu’aucun outil n’est présent.
auto est la valeur par défaut si des outils sont présents.
OpenAI.ChunkingStrategyRequestParam
Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide.
Discriminateur pour OpenAI.ChunkingStrategyRequestParam
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
auto |
OpenAI.AutoChunkingStrategyRequestParam |
static |
OpenAI.StaticChunkingStrategyRequestParam |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.ChunkingStrategyRequestParamType | Oui |
OpenAI.ChunkingStrategyRequestParamType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | autostatic |
OpenAI.ChunkingStrategyResponse
Stratégie utilisée pour segmenter le fichier.
Discriminateur pour OpenAI.ChunkingStrategyResponse
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
static |
OpenAI.StaticChunkingStrategyResponseParam |
other |
OpenAI.OtherChunkingStrategyResponseParam |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.ChunkingStrategyResponseType | Oui |
OpenAI.ChunkingStrategyResponseType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | staticother |
OpenAI.ClickButtonType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | leftrightwheelbackforward |
OpenAI.ClickParam
Action de clic.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Bouton | OpenAI.ClickButtonType | Oui | ||
| type | enum | Spécifie le type d’événement. Pour une action de clic, cette propriété est toujours click.Valeurs possibles : click |
Oui | |
| x | entier | Coordonnée x où le clic s’est produit. | Oui | |
| y | entier | Coordonnée y où le clic s’est produit. | Oui |
OpenAI.CodeInterpreterContainerAuto
Configuration d’un conteneur d’interpréteur de code. Vous pouvez éventuellement spécifier les ID des fichiers pour exécuter le code.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiants_de_fichiers | tableau de chaînes | Une liste facultative de fichiers chargés à mettre au service de votre code. | Non | |
| limite_de_mémoire | OpenAI.ContainerMemoryLimit ou null | Non | ||
| type | enum | A toujours la valeur auto.Valeurs possibles : auto |
Oui |
OpenAI.CodeInterpreterOutputImage
Sortie de l’image de l’interpréteur de code.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Type de la sortie. A toujours la valeur image.Valeurs possibles : image |
Oui | |
| url | ficelle | URL de la sortie de l’image à partir de l’interpréteur de code. | Oui |
OpenAI.CodeInterpreterOutputLogs
Sortie des journaux à partir de l’interpréteur de code.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| logs | ficelle | Sortie des journaux à partir de l’interpréteur de code. | Oui | |
| type | enum | Type de la sortie. A toujours la valeur logs.Valeurs possibles : logs |
Oui |
OpenAI.CodeInterpreterTool
Outil qui exécute du code Python afin d'aider à générer une réponse à une invite.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| container | string ou OpenAI.CodeInterpreterContainerAuto | Conteneur de l’interpréteur de code. Il peut s’agir d’un ID de conteneur ou d’un objet qui spécifie les ID de fichier chargés à mettre à la disposition de votre code, ainsi qu’un paramètre facultatif memory_limit . |
Oui | |
| type | enum | Type de l’outil d’interpréteur de code. A toujours la valeur code_interpreter.Valeurs possibles : code_interpreter |
Oui |
OpenAI.ComparisonFilter
Filtre utilisé pour comparer une clé d’attribut spécifiée à une valeur donnée à l’aide d’une opération de comparaison définie.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| clé | ficelle | La clé à comparer avec la valeur. | Oui | |
| type | enum | Spécifie l’opérateur de comparaison : eq, ne, gt, gtelt, lte, , in, , . nin- eq:Égale- ne: non égal- gt : plus grand que- gte: supérieur ou égal à- lt:moins de- lte: inférieur ou égal à- in:Dans- nin: pas dansValeurs possibles : eq, , negt, gte, ltlte |
Oui | |
| valeur | chaîne ou nombre ou booléen ou tableau d’OpenAI.ComparisonFilterValueItems | Valeur à comparer à la clé d’attribut ; prend en charge les types chaîne, nombre ou booléen. | Oui |
OpenAI.ComparisonFilterValueItems
Ce schéma accepte l’un des types suivants :
- chaîne de caractères
- numéro
OpenAI.CompletionUsage
Statistiques d’utilisation pour la demande d’achèvement.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| completion_tokens | entier | Nombre de jetons dans la complétion générée. | Oui | |
| completion_tokens_details | OpenAI.CompletionUsageCompletionTokensDetails | Non | ||
| └─ jetons_de_prédiction_acceptés | entier | Non | ||
| └audio_tokens | entier | Non | ||
| └─ jetons_de_raisonnement | entier | Non | ||
| └─ jetons_de_prédiction_rejetés | entier | Non | ||
| prompt_tokens | entier | Nombre de jetons dans l’invite. | Oui | |
| prompt_tokens_details | OpenAI.CompletionUsagePromptTokensDetails | Non | ||
| └audio_tokens | entier | Non | ||
| └cached_tokens | entier | Non | ||
| total_tokens | entier | Nombre total de jetons utilisés dans la requête (prompt + complétion). | Oui |
OpenAI.CompletionUsageCompletionTokensDetails
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| accepted_prediction_tokens | entier | Non | ||
| audio_tokens | entier | Non | ||
| jetons_de_raisonnement | entier | Non | ||
| rejected_prediction_tokens | entier | Non |
OpenAI.CompletionUsagePromptTokensDetails
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| audio_tokens | entier | Non | ||
| cached_tokens | entier | Non |
OpenAI.CompoundFilter
Combinez plusieurs filtres à l’aide and ou or.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| filters | tableau d’OpenAI.ComparisonFilter ou d’objet | Tableau de filtres à combiner. Les éléments peuvent être ComparisonFilter ou CompoundFilter. |
Oui | |
| type | enum | Type d’opération : and ou or.Valeurs possibles : and, or |
Oui |
OpenAI.ComputerAction
Discriminant pour OpenAI.ComputerAction
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
click |
OpenAI.ClickParam |
double_click |
OpenAI.DoubleClickAction |
drag |
OpenAI.Drag |
keypress |
OpenAI.KeyPressAction |
move |
OpenAI.Move |
screenshot |
OpenAI.Capture d’écran |
scroll |
OpenAI.Scroll |
type |
OpenAI.Type |
wait |
OpenAI.Wait |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.ComputerActionType | Oui |
OpenAI.ComputerActionType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | clickdouble_clickdragkeypressmovescreenshotscrolltypewait |
OpenAI.ComputerCallSafetyCheckParam
Une vérification de sécurité en attente pour l'appel informatique.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code | chaîne ou nulle | Non | ||
| id | ficelle | ID de la vérification de sécurité en attente. | Oui | |
| message | chaîne ou nulle | Non |
OpenAI.ComputerEnvironment
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | windowsmaclinuxubuntubrowser |
OpenAI.ComputerScreenshotContent
Capture d’écran d’un ordinateur.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiant_de_fichier | chaîne ou nulle | Oui | ||
| image_url | chaîne ou nulle | Oui | ||
| type | enum | Spécifie le type d’événement. Pour une capture d’écran d’ordinateur, cette propriété est toujours définie sur computer_screenshot.Valeurs possibles : computer_screenshot |
Oui |
OpenAI.ComputerScreenshotImage
Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiant_de_fichier | ficelle | Identificateur d’un fichier chargé qui contient la capture d’écran. | Non | |
| image_url | ficelle | URL de l’image de capture d’écran. | Non | |
| type | enum | Spécifie le type d’événement. Pour une capture d’écran d’ordinateur, cette propriété est toujours défini sur computer_screenshot.Valeurs possibles : computer_screenshot |
Oui |
OpenAI.ComputerUsePreviewTool
Outil qui contrôle un ordinateur virtuel.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| hauteur_affichage | entier | Hauteur de l’affichage de l’ordinateur. | Oui | |
| largeur d'affichage | entier | Largeur de l’affichage de l’ordinateur. | Oui | |
| environment | OpenAI.ComputerEnvironment | Oui | ||
| type | enum | Type de l’outil d’utilisation de l’ordinateur. A toujours la valeur computer_use_preview.Valeurs possibles : computer_use_preview |
Oui |
OpenAI.ContainerFileCitationBody
Une citation pour un fichier conteneur utilisé pour générer une réponse modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| container_id | ficelle | L’identifiant du fichier conteneur. | Oui | |
| end_index | entier | L’index du dernier caractère de la citation du fichier conteneur dans le message. | Oui | |
| identifiant_de_fichier | ficelle | ID du fichier. | Oui | |
| filename | ficelle | Le nom du fichier conteneur cité. | Oui | |
| start_index | entier | L’index du premier caractère de la citation du fichier conteneur dans le message. | Oui | |
| type | enum | Le type de citation du fichier conteneur. A toujours la valeur container_file_citation.Valeurs possibles : container_file_citation |
Oui |
OpenAI.ContainerFileListResource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.ContainerFileResource | Liste des fichiers conteneur. | Oui | |
| premier_identifiant | ficelle | ID du premier fichier de la liste. | Oui | |
| has_more | booléen | Indique s’il existe d’autres fichiers disponibles. | Oui | |
| last_id | ficelle | ID du dernier fichier de la liste. | Oui | |
| objet | enum | Le type d’objet retourné doit être « list ». Valeurs possibles : list |
Oui |
OpenAI.ContainerFileResource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| octets | entier | Taille du fichier en octets. | Oui | |
| container_id | ficelle | Conteneur auquel appartient ce fichier. | Oui | |
| date_de_création | entier | Horodatage Unix (en secondes) lors de la création du fichier. | Oui | |
| id | ficelle | Identificateur unique du fichier. | Oui | |
| objet | enum | Type de cet objet (container.file).Valeurs possibles : container.file |
Oui | |
| chemin | ficelle | Chemin d’accès du fichier dans le conteneur. | Oui | |
| source | ficelle | Source du fichier (par exemple, user, assistant). |
Oui |
OpenAI.ContainerListResource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.ContainerResource | Liste des conteneurs. | Oui | |
| premier_identifiant | ficelle | ID du premier conteneur de la liste. | Oui | |
| has_more | booléen | Indique s’il existe d’autres conteneurs disponibles. | Oui | |
| last_id | ficelle | ID du dernier conteneur de la liste. | Oui | |
| objet | enum | Le type d’objet retourné doit être « list ». Valeurs possibles : list |
Oui |
OpenAI.ContainerMemoryLimit
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | 1g4g16g64g |
OpenAI.ContainerResource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| date_de_création | entier | Horodatage Unix (en secondes) lors de la création du conteneur. | Oui | |
| expire_après | OpenAI.ContainerResourceExpiresAfter | Non | ||
| └─ Ancre | enum | Valeurs possibles : last_active_at |
Non | |
| └' minutes | entier | Non | ||
| id | ficelle | Identificateur unique du conteneur. | Oui | |
| date_dernière_activité | entier | Timestamp Unix (en secondes) lorsque le conteneur a été actif pour la dernière fois. | Non | |
| limite_de_mémoire | enum | Limite de mémoire configurée pour le conteneur. Valeurs possibles : 1g, , 4g16g,64g |
Non | |
| nom | ficelle | Nom du conteneur. | Oui | |
| objet | ficelle | Type de cet objet. | Oui | |
| status | ficelle | État du conteneur (par exemple, actif, supprimé). | Oui |
OpenAI.ContainerResourceExpiresAfter
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| anchor | enum | Valeurs possibles : last_active_at |
Non | |
| compte-rendu | entier | Non |
OpenAI.ConversationItem
Élément unique au sein d’une conversation. L’ensemble de types possibles est identique au output type d’un objet Response.
Discriminateur pour OpenAI.ConversationItem
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.ConversationItemType | Oui |
OpenAI.ConversationItemApplyPatchToolCall
Appel d’outil qui applique des différences de fichier en créant, supprimant ou mettant à jour des fichiers.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| call_id | ficelle | L’ID unique de l’appel à l’outil de patch apply généré par le modèle. | Oui | |
| created_by | ficelle | ID de l’entité qui a créé cet appel d’outil. | Non | |
| id | ficelle | ID unique de l’appel de l’outil apply patch. Renseigné lorsque cet élément est retourné via l’API. | Oui | |
| opération | OpenAI.ApplyPatchFileOperation | Une des opérations create_file, delete_file ou update_file appliquées via apply_patch. | Oui | |
| └─ Type | OpenAI.ApplyPatchFileOperationType | Oui | ||
| status | OpenAI.ApplyPatchCallStatus | Oui | ||
| type | enum | Type de l’élément. A toujours la valeur apply_patch_call.Valeurs possibles : apply_patch_call |
Oui |
OpenAI.ConversationItemApplyPatchToolCallOutput
Sortie émise par un appel d’outil de correctif d’application.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| call_id | ficelle | L’ID unique de l’appel à l’outil de patch apply généré par le modèle. | Oui | |
| created_by | ficelle | ID de l’entité qui a créé cette sortie d’appel d’outil. | Non | |
| id | ficelle | ID unique de la sortie d’appel de l’outil appliquer le correctif. Renseigné lorsque cet élément est retourné via l’API. | Oui | |
| output | chaîne ou nulle | Non | ||
| status | OpenAI.ApplyPatchCallOutputStatus | Oui | ||
| type | enum | Type de l’élément. A toujours la valeur apply_patch_call_output.Valeurs possibles : apply_patch_call_output |
Oui |
OpenAI.ConversationItemCodeInterpreterToolCall
Un appel d’outil pour exécuter du code.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code | chaîne ou nulle | Oui | ||
| container_id | ficelle | ID du conteneur utilisé pour exécuter le code. | Oui | |
| id | ficelle | ID unique de l’appel de l’outil interpréteur de code. | Oui | |
| sorties | tableau d’OpenAI.CodeInterpreterOutputLogs ou OpenAI.CodeInterpreterOutputImage ou null | Oui | ||
| status | enum | Le statut de l’appel de l’outil Interpréteur de code. Les valeurs acceptables sont : in_progress, completed, incomplete, interpreting et failed.Valeurs possibles : in_progress, , completedincomplete, interpreting,failed |
Oui | |
| type | enum | Type de l’appel de l’outil interpréteur de code. A toujours la valeur code_interpreter_call.Valeurs possibles : code_interpreter_call |
Oui |
OpenAI.ConversationItemComputerToolCall
Un appel d’outil à un outil d’utilisation d’ordinateur. Voir le guide d’utilisation ordinateur pour plus d’informations.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| action | OpenAI.ComputerAction | Oui | ||
| call_id | ficelle | Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie. | Oui | |
| id | ficelle | ID unique de l’appel informatique. | Oui | |
| pending_safety_checks | tableau d’OpenAI.ComputerCallSafetyCheckParam | Les vérifications de sécurité en attente pour l'appel informatique. | Oui | |
| status | enum | État de l’élément. Un des in_progress, ou completedincomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
Oui | |
| type | enum | Type de l’appel d’ordinateur. A toujours la valeur computer_call.Valeurs possibles : computer_call |
Oui |
OpenAI.ConversationItemComputerToolCallOutputResource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| acknowledged_safety_checks | tableau d’OpenAI.ComputerCallSafetyCheckParam | Les vérifications de sécurité signalées par l’API qui ont été reconnues par le développeur |
Non | |
| call_id | ficelle | L'identifiant de l’appel de l’outil informatique qui a produit la sortie. | Oui | |
| id | ficelle | Identifiant de la sortie de l'outil informatique utilisé. | Non | |
| output | OpenAI.ComputerScreenshotImage | Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur. | Oui | |
| status | enum | État de l’entrée de message. Un des in_progress, ou completedincomplete. Rempli lorsque les éléments d’entrée sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
Non | |
| type | enum | Type de sortie de l’appel de l’outil informatique. A toujours la valeur computer_call_output.Valeurs possibles : computer_call_output |
Oui |
OpenAI.ConversationItemCustomToolCall
Un appel à un outil personnalisé créé par le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| call_id | ficelle | Un identifiant utilisé pour associer cet appel d’outil personnalisé à une sortie d’appel d’outil. | Oui | |
| id | ficelle | L’ID unique de l’outil personnalisé s’appelle sur la plateforme OpenAI. | Non | |
| entrée | ficelle | L’entrée pour l’appel d’outil personnalisé généré par le modèle. | Oui | |
| nom | ficelle | Nom de l’outil personnalisé appelé. | Oui | |
| type | enum | Le type d’appel de l’outil personnalisé. A toujours la valeur custom_tool_call.Valeurs possibles : custom_tool_call |
Oui |
OpenAI.ConversationItemCustomToolCallOutput
La sortie d’un appel d’outil personnalisé depuis votre code, renvoyée au modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| call_id | ficelle | L’identifiant de l’appel servait à associer cette sortie d’appel d’outil personnalisée à un appel d’outil personnalisé. | Oui | |
| id | ficelle | L’identifiant unique de la sortie d’appel d’outil personnalisé sur la plateforme OpenAI. | Non | |
| output | chaîne ou tableau d’OpenAI.FunctionAndCustomToolCallOutput | La sortie de l’appel d’outil personnalisé généré par votre code. Il peut s’agir d’une chaîne ou d’une liste de contenu de sortie. |
Oui | |
| type | enum | Le type de sortie de l’appel d’outil personnalisé. A toujours la valeur custom_tool_call_output.Valeurs possibles : custom_tool_call_output |
Oui |
OpenAI.ConversationItemFileSearchToolCall
Résultats d’un appel d’outil de recherche de fichiers. Consultez le guide de recherche fichier pour plus d’informations.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| id | ficelle | ID unique de l’appel de l’outil de recherche de fichiers. | Oui | |
| queries | tableau de chaînes | Requêtes utilisées pour rechercher des fichiers. | Oui | |
| results | tableau d’OpenAI.FileSearchToolCallResults ou null | Non | ||
| status | enum | État de l'accès à l’outil de recherche de fichiers. Valeurs possibles : in_progress,searching, incomplete, ou failedValeurs possibles : in_progress, , searchingcompleted, incomplete,failed |
Oui | |
| type | enum | Type de l’appel de l’outil de recherche de fichiers. A toujours la valeur file_search_call.Valeurs possibles : file_search_call |
Oui |
OpenAI.ConversationItemFunctionShellCall
Appel d’outil qui exécute une ou plusieurs commandes shell dans un environnement managé.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| action | OpenAI.FunctionShellAction | Exécutez une commande shell. | Oui | |
| Commandes └ ; | tableau de chaînes | Oui | ||
| └max_output_length | entier ou null | Oui | ||
| └timeout_ms | entier ou null | Oui | ||
| call_id | ficelle | L’ID unique de l’appel de l’outil shell généré par le modèle. | Oui | |
| created_by | ficelle | ID de l’entité qui a créé cet appel d’outil. | Non | |
| id | ficelle | ID unique de l’appel de l’outil shell. Renseigné lorsque cet élément est retourné via l’API. | Oui | |
| status | OpenAI.LocalShellCallStatus | Oui | ||
| type | enum | Type de l’élément. A toujours la valeur shell_call.Valeurs possibles : shell_call |
Oui |
OpenAI.ConversationItemFunctionShellCallOutput
Sortie d’un appel d’outil shell émis.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| call_id | ficelle | L’ID unique de l’appel de l’outil shell généré par le modèle. | Oui | |
| created_by | ficelle | Identificateur de l’acteur qui a créé l’élément. | Non | |
| id | ficelle | ID unique de la sortie de l’appel d’interpréteur de commandes. Renseigné lorsque cet élément est retourné via l’API. | Oui | |
| max_output_length | entier ou null | Oui | ||
| output | tableau d’OpenAI.FunctionShellCallOutputContent | Tableau de contenu de sortie d’appel d’interpréteur de commandes | Oui | |
| type | enum | Type de sortie de l’appel d’interpréteur de commandes. A toujours la valeur shell_call_output.Valeurs possibles : shell_call_output |
Oui |
OpenAI.ConversationItemFunctionToolCallOutputResource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| call_id | ficelle | ID unique de l’appel de l’outil fonctionnel généré par le modèle. | Oui | |
| id | ficelle | Identifiant unique de l'appel de sortie de l'outil fonctionnel. Renseigné lorsque cet élément est renseigné est retourné via l’API. |
Non | |
| output | chaîne ou tableau d’OpenAI.FunctionAndCustomToolCallOutput | Sortie de l’appel de fonction généré par votre code. Il peut s’agir d’une chaîne ou d’une liste de contenu de sortie. |
Oui | |
| status | enum | État de l’élément. Un des in_progress, ou completedincomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
Non | |
| type | enum | Type d'appel de sortie de l'outil de fonctionnel. A toujours la valeur function_call_output.Valeurs possibles : function_call_output |
Oui |
OpenAI.ConversationItemFunctionToolCallResource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| arguments | ficelle | Chaîne JSON des arguments à passer à la fonction. | Oui | |
| call_id | ficelle | ID unique de l’appel de l’outil fonctionnel généré par le modèle. | Oui | |
| id | ficelle | Identifiant unique de l'appel de l'outil fonctionnel. | Non | |
| nom | ficelle | Nom de la fonction à exécuter. | Oui | |
| status | enum | État de l’élément. Un des in_progress, ou completedincomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
Non | |
| type | enum | Type d'appel de l'outil fonctionnel. A toujours la valeur function_call.Valeurs possibles : function_call |
Oui |
OpenAI.ConversationItemImageGenToolCall
Demande de génération d’image effectuée par le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| id | ficelle | L’identifiant unique de l’appel de génération d’image. | Oui | |
| résultat | chaîne ou nulle | Oui | ||
| status | enum | L’état de l’appel de génération d’images. Valeurs possibles : in_progress, , completedgenerating,failed |
Oui | |
| type | enum | Le type d’appel de génération d’image. A toujours la valeur image_generation_call.Valeurs possibles : image_generation_call |
Oui |
OpenAI.ConversationItemList
Liste des éléments de conversation.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.ConversationItem | Liste des éléments de conversation. | Oui | |
| premier_identifiant | ficelle | ID du premier élément de la liste. | Oui | |
| has_more | booléen | Indique s’il existe d’autres éléments disponibles. | Oui | |
| last_id | ficelle | ID du dernier élément de la liste. | Oui | |
| objet | enum | Le type d’objet retourné doit être list.Valeurs possibles : list |
Oui |
OpenAI.ConversationItemLocalShellToolCall
Appel d’outil pour exécuter une commande sur l’interpréteur de commandes local.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| action | OpenAI.LocalShellExecAction | Exécutez une commande shell sur le serveur. | Oui | |
| call_id | ficelle | ID unique de l’appel de l’outil shell local généré par le modèle. | Oui | |
| id | ficelle | L’identifiant unique de l’appel local de shell. | Oui | |
| status | enum | L’état de l’appel local de coquillage. Valeurs possibles : in_progress, , completedincomplete |
Oui | |
| type | enum | Le type de l’appel local de la coquille. A toujours la valeur local_shell_call.Valeurs possibles : local_shell_call |
Oui |
OpenAI.ConversationItemLocalShellToolCallOutput
Sortie d’un appel d’outil shell local.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| id | ficelle | ID unique de l’appel de l’outil shell local généré par le modèle. | Oui | |
| output | ficelle | Chaîne JSON de la sortie de l’appel de l’outil shell local. | Oui | |
| status | chaîne ou nulle | Non | ||
| type | enum | Le type de sortie de l’outil local de shell. A toujours la valeur local_shell_call_output.Valeurs possibles : local_shell_call_output |
Oui |
OpenAI.ConversationItemMcpApprovalRequest
Demande d'approbation humaine pour l'invocation d'un outil.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| arguments | ficelle | Chaîne JSON d’arguments pour l’outil. | Oui | |
| id | ficelle | L’identifiant unique de la demande d’approbation. | Oui | |
| nom | ficelle | Nom de l’outil à exécuter. | Oui | |
| server_label | ficelle | Étiquette du serveur MCP effectuant la requête. | Oui | |
| type | enum | Type de l’élément. A toujours la valeur mcp_approval_request.Valeurs possibles : mcp_approval_request |
Oui |
OpenAI.ConversationItemMcpApprovalResponseResource
Une réponse à une requête d’approbation de MCP.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| approval_request_id | ficelle | L’ID de la requête d’approbation à laquelle on répond. | Oui | |
| Approuver | booléen | Indique si la demande a été approuvée. | Oui | |
| id | ficelle | ID unique de la réponse d’approbation | Oui | |
| reason | chaîne ou nulle | Non | ||
| type | enum | Type de l’élément. A toujours la valeur mcp_approval_response.Valeurs possibles : mcp_approval_response |
Oui |
OpenAI.ConversationItemMcpListTools
Liste des outils disponibles sur un serveur MCP.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| erreur | chaîne ou nulle | Non | ||
| id | ficelle | L’identifiant unique de la liste. | Oui | |
| server_label | ficelle | Étiquette du serveur MCP. | Oui | |
| outils | tableau d’OpenAI.MCPListToolsTools | Outils disponibles sur le serveur. | Oui | |
| type | enum | Type de l’élément. A toujours la valeur mcp_list_tools.Valeurs possibles : mcp_list_tools |
Oui |
OpenAI.ConversationItemMcpToolCall
Appel d’un outil sur un serveur MCP.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| approval_request_id | chaîne ou nulle | Non | ||
| arguments | ficelle | Chaîne JSON des arguments passés à l’outil. | Oui | |
| erreur | chaîne ou nulle | Non | ||
| id | ficelle | L’ID unique de l’outil appelle. | Oui | |
| nom | ficelle | Le nom de l’outil qui a été exécuté. | Oui | |
| output | chaîne ou nulle | Non | ||
| server_label | ficelle | Étiquette du serveur MCP exécutant l’outil. | Oui | |
| status | OpenAI.MCPToolCallStatus | Non | ||
| type | enum | Type de l’élément. A toujours la valeur mcp_call.Valeurs possibles : mcp_call |
Oui |
OpenAI.ConversationItemMessage
Message vers ou depuis le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | tableau d’OpenAI.InputTextContent ou OpenAI.OutputTextContent ou OpenAI.TextContent ou OpenAI.SummaryTextContent ou OpenAI.ReasoningTextContent ou OpenAI.RefusalContent ou OpenAI.InputImageContent ou OpenAI.ComputerScreenshotContent ou OpenAI.InputFileContent | Contenu du message | Oui | |
| id | ficelle | ID unique du message. | Oui | |
| role | OpenAI.MessageRole | Oui | ||
| status | OpenAI.MessageStatus | Oui | ||
| type | enum | Type du message. Toujours défini sur message.Valeurs possibles : message |
Oui |
OpenAI.ConversationItemReasoningItem
Description de la chaîne de pensée utilisée par un modèle de raisonnement lors de la génération d’une réponse. Assurez-vous d’inclure ces éléments dans votre input de l’API Réponses pour les tours suivants d’une conversation si vous gérez manuellement context.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | tableau d’OpenAI.ReasoningTextContent | Contenu texte de raisonnement. | Non | |
| encrypted_content | chaîne ou nulle | Non | ||
| id | ficelle | Identificateur unique du contenu du raisonnement. | Oui | |
| status | enum | État de l’élément. Un des in_progress, ou completedincomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
Non | |
| summary | tableau d’OpenAI.Summary | Résumé du raisonnement. | Oui | |
| type | enum | Type de l’objet. A toujours la valeur reasoning.Valeurs possibles : reasoning |
Oui |
OpenAI.ConversationItemType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | messagefunction_callfunction_call_outputfile_search_callweb_search_callimage_generation_callcomputer_callcomputer_call_outputreasoningcode_interpreter_calllocal_shell_calllocal_shell_call_outputshell_callshell_call_outputapply_patch_callapply_patch_call_outputmcp_list_toolsmcp_approval_requestmcp_approval_responsemcp_callcustom_tool_callcustom_tool_call_output |
OpenAI.ConversationItemWebSearchToolCall
Les résultats d’un appel d’un outil de recherche Web. Consultez le guide recherche web pour plus d’informations.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| action | OpenAI.WebSearchActionSearch ouOpenAI.WebSearchActionOpenPage ou OpenAI.WebSearchActionFind | Objet décrivant l’action spécifique effectuée dans cet appel de recherche Web. Comprend des détails sur la façon dont le modèle a utilisé le Web (rechercher, open_page, trouver). |
Oui | |
| id | ficelle | L’identifiant unique de l’outil de recherche web appelle. | Oui | |
| status | enum | L’état de l’appel d’outil de recherche web. Valeurs possibles : in_progress, , searchingcompleted,failed |
Oui | |
| type | enum | Le type de l’outil de recherche web appelé. A toujours la valeur web_search_call.Valeurs possibles : web_search_call |
Oui |
OpenAI.ConversationParam
Conversation à laquelle cette réponse appartient. Les éléments de cette conversation sont ajoutés à input_items cette demande de réponse.
Les éléments d’entrée et les éléments de sortie de cette réponse sont automatiquement ajoutés à cette conversation une fois cette réponse terminée.
Type : chaîne ou OpenAI.ConversationParam-2
Conversation à laquelle cette réponse appartient. Les éléments de cette conversation sont ajoutés à input_items cette demande de réponse.
Les éléments d’entrée et les éléments de sortie de cette réponse sont automatiquement ajoutés à cette conversation une fois cette réponse terminée.
OpenAI.ConversationParam-2
Conversation à laquelle cette réponse appartient.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| id | ficelle | ID unique de la conversation. | Oui |
OpenAI.ConversationReference
Conversation à laquelle cette réponse appartient. Les éléments d’entrée et les éléments de sortie de cette réponse ont été automatiquement ajoutés à cette conversation.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| id | ficelle | ID unique de la conversation à laquelle cette réponse a été associée. | Oui |
OpenAI.ConversationResource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| date_de_création | entier | Heure à laquelle la conversation a été créée, mesurée en secondes depuis l’époque Unix. | Oui | |
| id | ficelle | ID unique de la conversation. | Oui | |
| metadata | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
Oui | ||
| objet | enum | Le type d’objet, qui est toujours conversation.Valeurs possibles : conversation |
Oui |
OpenAI.CreateChatCompletionRequestAudio
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| format | enum | Valeurs possibles : wav, , aacmp3, flac, opuspcm16 |
Oui | |
| voice | OpenAI.VoiceIdsShared | Oui |
OpenAI.CreateChatCompletionRequestResponseFormat
Objet spécifiant le format que le modèle doit générer.
Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.
Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
Discriminateur pour OpenAI.CreateChatCompletionRequestResponseFormat
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
json_schema |
OpenAI.ResponseFormatJsonSchema |
text |
OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatText |
json_object |
OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatJsonObject |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.CreateChatCompletionRequestResponseFormatType | Oui |
OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatJsonObject
Format de réponse d’objet JSON. Méthode plus ancienne de génération de réponses JSON.
L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. Notez que le modèle ne génère pas de JSON sans message système ou utilisateur lui demandant de le faire.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Type de format de réponse défini. A toujours la valeur json_object.Valeurs possibles : json_object |
Oui |
OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatText
Format de réponse par défaut. Utilisé pour générer des réponses de texte.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Type de format de réponse défini. A toujours la valeur text.Valeurs possibles : text |
Oui |
OpenAI.CreateChatCompletionRequestResponseFormatType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | textjson_schemajson_object |
OpenAI.CreateChatCompletionResponseChoices
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| content_filter_results | AzureContentFilterResultForChoice | Résultat d’un filtre de contenu pour un élément de réponse unique produit par un système d’INTELLIGENCE artificielle générative. | Non | |
| finish_reason | enum | Valeurs possibles : stop, , lengthtool_calls, content_filter,function_call |
Oui | |
| index | entier | Oui | ||
| logprobs | OpenAI.CreateChatCompletionResponseChoicesLogprobs ou null | Oui | ||
| message | OpenAI.ChatCompletionResponseMessage | Si la modalité de sortie audio est demandée, cet objet contient des données à propos de la réponse audio du modèle. |
Oui |
OpenAI.CreateChatCompletionResponseChoicesLogprobs
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | tableau d’OpenAI.ChatCompletionTokenLogprob ou null | Oui | ||
| refusal | tableau d’OpenAI.ChatCompletionTokenLogprob ou null | Oui |
OpenAI.CreateChatCompletionStreamResponseChoices
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| delta | OpenAI.ChatCompletionStreamResponseDelta | Delta de complétion de conversation généré par les réponses de modèle diffusées en continu. | Oui | |
| finish_reason | chaîne ou nulle | Oui | ||
| index | entier | Oui | ||
| logprobs | OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs ou null | Non |
OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | tableau d’OpenAI.ChatCompletionTokenLogprob ou null | Oui | ||
| refusal | tableau d’OpenAI.ChatCompletionTokenLogprob ou null | Oui |
OpenAI.CreateCompletionResponseChoices
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| content_filter_results | AzureContentFilterResultForChoice | Résultat d’un filtre de contenu pour un élément de réponse unique produit par un système d’INTELLIGENCE artificielle générative. | Non | |
| finish_reason | enum | Valeurs possibles : stop, , lengthcontent_filter |
Oui | |
| index | entier | Oui | ||
| logprobs | OpenAI.CreateCompletionResponseChoicesLogprobs ou null | Oui | ||
| texte | ficelle | Oui |
OpenAI.CreateCompletionResponseChoicesLogprobs
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| text_offset | tableau d’entiers | Non | ||
| token_logprobs | tableau de nombres | Non | ||
| tokens | tableau de chaînes | Non | ||
| top_logprobs | tableau d’objet | Non |
OpenAI.CreateContainerBody
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| expire_après | OpenAI.CreateContainerBodyExpiresAfter | Non | ||
| └─ Ancre | enum | Valeurs possibles : last_active_at |
Oui | |
| └' minutes | entier | Oui | ||
| identifiants_de_fichiers | tableau de chaînes | ID de fichiers à copier dans le conteneur. | Non | |
| limite_de_mémoire | enum | Limite de mémoire facultative pour le conteneur. La valeur par défaut est « 1g ». Valeurs possibles : 1g, , 4g16g,64g |
Non | |
| nom | ficelle | Nom du conteneur à créer. | Oui |
OpenAI.CreateContainerBodyExpiresAfter
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| anchor | enum | Valeurs possibles : last_active_at |
Oui | |
| compte-rendu | entier | Oui |
OpenAI.CreateContainerFileBody
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| fichier | Objet File (et non nom de fichier) à charger. | Non | ||
| identifiant_de_fichier | ficelle | Nom du fichier à créer. | Non |
OpenAI.CreateConversationBody
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Éléments | tableau d’OpenAI.InputItem ou null | Non | ||
| metadata | OpenAI.Metadata ou null | Non |
OpenAI.CreateConversationItemsParametersBody
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Éléments | tableau d’OpenAI.InputItem | Oui |
OpenAI.CreateEmbeddingRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| dimensions | entier | Nombre de dimensions que les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs.Contraintes : min : 1 |
Non | |
| encoding_format | enum | Format dans lequel retourner les incorporations. La valeur peut être float ou base64.Valeurs possibles : float, base64 |
Non | |
| entrée | chaîne ou tableau de chaîne ou tableau d’entiers ou de tableaux de tableau | Texte d’entrée à incorporer, encodé en tant que chaîne ou tableau de jetons. Pour incorporer plusieurs entrées dans une seule requête, transmettez un tableau de chaînes ou de tableaux de jetons. L’entrée ne doit pas dépasser les jetons d’entrée max pour le modèle (8 192 jetons pour tous les modèles d’incorporation), ne peut pas être une chaîne vide, et tout tableau doit être de 2 048 dimensions ou moins. Exemple de code Python pour le comptage de jetons. Outre la limite de jetons par entrée, tous les modèles d’incorporation appliquent un maximum de 300 000 jetons additionnés sur toutes les entrées dans une seule requête. | Oui | |
| modèle | ficelle | ID du modèle à utiliser. Vous pouvez utiliser l’API Des modèles de liste pour afficher tous vos modèles disponibles ou voir notre vue d’ensemble du modèle pour obtenir des descriptions. | Oui | |
| utilisateur | ficelle | En savoir plus. | Non |
OpenAI.CreateEmbeddingResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.Embedding | Liste des incorporations générées par le modèle. | Oui | |
| modèle | ficelle | Nom du modèle utilisé pour générer l’incorporation. | Oui | |
| objet | enum | Type d’objet, qui est toujours « list ». Valeurs possibles : list |
Oui | |
| usage | OpenAI.CreateEmbeddingResponseUsage | Oui | ||
| └prompt_tokens | entier | Oui | ||
| └total_tokens | entier | Oui |
OpenAI.CreateEmbeddingResponseUsage
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| prompt_tokens | entier | Oui | ||
| total_tokens | entier | Oui |
OpenAI.CreateEvalCompletionsRunDataSource
Objet CompletionsRunDataSource décrivant une configuration d’échantillonnage de modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| messages_d'entrée | OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate ou OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference | Utilisé lors de l’échantillonnage à partir d’un modèle. Dicte la structure des messages passés dans le modèle. Peut être une référence à une trajectoire prédéfinie (par exemple, item.input_trajectoryou un modèle avec des références de variable à l’espace item de noms). |
Non | |
| modèle | ficelle | Nom du modèle à utiliser pour générer des achèvements (par exemple « o3-mini »). | Non | |
| paramètres d'échantillonnage | AzureCompletionsSamplingParams | Paramètres d’échantillonnage pour contrôler le comportement des achèvements. | Non | |
| source | OpenAI.EvalJsonlFileContentSource ou OpenAI.EvalJsonlFileIdSource ou OpenAI.EvalStoredCompletionsSource | Détermine ce qui remplit l’espace item de noms dans la source de données de cette exécution. |
Oui | |
| type | enum | Type de source de données d’exécution. A toujours la valeur completions.Valeurs possibles : completions |
Oui |
OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_reference | ficelle | Oui | ||
| type | enum | Valeurs possibles : item_reference |
Oui |
OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| modèle | tableau d’OpenAI.EasyInputMessage ou OpenAI.EvalItem | Oui | ||
| type | enum | Valeurs possibles : template |
Oui |
OpenAI.CreateEvalCompletionsRunDataSourceSamplingParams
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| max_completion_tokens | entier | Non | ||
| effort de raisonnement | OpenAI.ReasoningEffort | Limite l’effort sur le raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduirel’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés le raisonnement dans une réponse. - gpt-5.1
nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max. |
Non | |
| format_de_réponse | OpenAI.ResponseFormatText ou OpenAI.ResponseFormatJsonSchema ou OpenAI.ResponseFormatJsonObject | Non | ||
| seed | entier | Une valeur initiale initialise la randomité pendant l’échantillonnage. | Non | 42 |
| température | nombre | Une température plus élevée augmente l'aléa des résultats. | Non | 1 |
| outils | tableau d’OpenAI.ChatCompletionTool | Non | ||
| top_p | nombre | Alternative à la température pour l'échantillonnage de noyau ; 1.0 inclut tous les éléments. | Non | 1 |
OpenAI.CreateEvalCustomDataSourceConfig
Objet CustomDataSourceConfig qui définit le schéma de la source de données utilisée pour les exécutions d’évaluation. Ce schéma est utilisé pour définir la forme des données qui seront :
- Utilisé pour définir vos critères de test et
- Quelles données sont requises lors de la création d’une exécution
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| inclure_exemple_schéma | booléen | Indique si l’évaluation doit s’attendre à ce que vous remplissiez l’espace de noms d’exemple (par exemple, en générant des réponses à partir de votre source de données) | Non | |
| item_schema | objet | Schéma json pour chaque ligne de la source de données. | Oui | |
| type | enum | Le type de source de données. A toujours la valeur custom.Valeurs possibles : custom |
Oui |
OpenAI.CreateEvalItem
Message de conversation qui compose l’invite ou le contexte. Peut inclure des références de variables à l’espace de noms item, par exemple {{item.name}}.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | ficelle | Contenu du message. | Oui | |
| role | ficelle | Rôle du message (par exemple , « system », « assistant », « user »). | Oui |
OpenAI.CreateEvalJsonlRunDataSource
Un objet JsonlRunDataSource spécifiant un fichier JSONL qui correspond à l'évaluation
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| source | OpenAI.EvalJsonlFileContentSource ou OpenAI.EvalJsonlFileIdSource | Détermine ce qui remplit l’espace item de noms dans la source de données. |
Oui | |
| type | enum | Le type de source de données. A toujours la valeur jsonl.Valeurs possibles : jsonl |
Oui |
OpenAI.CreateEvalLabelModelGrader
Objet LabelModelGrader qui utilise un modèle pour affecter des étiquettes à chaque élément de l’évaluation.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| entrée | tableau d’OpenAI.CreateEvalItem | Liste des messages de conversation formant l’invite ou le contexte. Peut inclure des références de variables à l’espace de noms item, par exemple {{item.name}}. |
Oui | |
| labels | tableau de chaînes | Étiquettes à classer sur chaque élément de l’évaluation. | Oui | |
| modèle | ficelle | Modèle à utiliser pour l’évaluation. Doit prendre en charge les sorties structurées. | Oui | |
| nom | ficelle | Nom du correcteur. | Oui | |
| passing_labels | tableau de chaînes | Étiquettes qui indiquent un résultat de passage. Doit être un sous-ensemble d’étiquettes. | Oui | |
| type | enum | Le type d’objet, qui est toujours label_model.Valeurs possibles : label_model |
Oui |
OpenAI.CreateEvalLogsDataSourceConfig
Configuration de source de données qui spécifie la propriété de métadonnées de votre requête de journaux d’activité.
Il s’agit généralement de métadonnées telles que usecase=chatbot ou prompt-version=v2, etc.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| metadata | objet | Filtres de métadonnées pour la source de données des journaux. | Non | |
| type | enum | Le type de source de données. A toujours la valeur logs.Valeurs possibles : logs |
Oui |
OpenAI.CreateEvalResponsesRunDataSource
Objet ResponsesRunDataSource décrivant une configuration d’échantillonnage de modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| messages_d'entrée | OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate ou OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference | Utilisé lors de l’échantillonnage à partir d’un modèle. Dicte la structure des messages passés dans le modèle. Peut être une référence à une trajectoire prédéfinie (par exemple, item.input_trajectoryou un modèle avec des références de variable à l’espace item de noms). |
Non | |
| modèle | ficelle | Nom du modèle à utiliser pour générer des achèvements (par exemple « o3-mini »). | Non | |
| paramètres d'échantillonnage | AzureResponsesSamplingParams | Paramètres d’échantillonnage pour contrôler le comportement des réponses. | Non | |
| source | OpenAI.EvalJsonlFileContentSource ou OpenAI.EvalJsonlFileIdSource ou OpenAI.EvalResponsesSource | Détermine ce qui remplit l’espace item de noms dans la source de données de cette exécution. |
Oui | |
| type | enum | Type de source de données d’exécution. A toujours la valeur responses.Valeurs possibles : responses |
Oui |
OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_reference | ficelle | Oui | ||
| type | enum | Valeurs possibles : item_reference |
Oui |
OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| modèle | tableau d’objet ou OpenAI.EvalItem | Oui | ||
| type | enum | Valeurs possibles : template |
Oui |
OpenAI.CreateEvalResponsesRunDataSourceSamplingParams
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| effort de raisonnement | OpenAI.ReasoningEffort | Limite l’effort sur le raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduirel’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés le raisonnement dans une réponse. - gpt-5.1
nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max. |
Non | |
| seed | entier | Une valeur initiale initialise la randomité pendant l’échantillonnage. | Non | 42 |
| température | nombre | Une température plus élevée augmente l'aléa des résultats. | Non | 1 |
| texte | OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText | Non | ||
| outils | tableau d’OpenAI.Tool | Non | ||
| top_p | nombre | Alternative à la température pour l'échantillonnage de noyau ; 1.0 inclut tous les éléments. | Non | 1 |
OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| format | OpenAI.TextResponseFormatConfiguration | Objet spécifiant le format que le modèle doit générer. La configuration de { "type": "json_schema" } active les sorties structurées,qui garantit que le modèle correspondra à votre schéma JSON fourni. Apprenez-en davantage dans le Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.*Non recommandé pour gpt-4o et les modèles plus récents :** Activer { "type": "json_object" } permet de passer au mode JSON plus ancien, quigarantit que le message généré par le modèle est json valide. Utilisation de json_schemaLa solution est préférée pour les modèles qui la prennent en charge. |
Non |
OpenAI.CreateEvalRunRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| source de données | OpenAI.CreateEvalJsonlRunDataSource ou OpenAI.CreateEvalCompletionsRunDataSource ou OpenAI.CreateEvalResponsesRunDataSource | Détails sur la source de données de l’exécution. | Oui | |
| metadata | OpenAI.Metadata ou null | Non | ||
| nom | ficelle | Nom de l’exécution. | Non |
OpenAI.CreateEvalStoredCompletionsDataSourceConfig
Déconseillé en faveur de LogsDataSourceConfig.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| metadata | objet | Filtres de métadonnées pour la source de données de saisie semi-automatique stockée. | Non | |
| type | enum | Le type de source de données. A toujours la valeur stored_completions.Valeurs possibles : stored_completions |
Oui |
OpenAI.CreateFileRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| expire_après | objet | Oui | ||
| └─ Ancre | AzureFileExpiryAnchor | Oui | ||
| └ secondes | entier | Oui | ||
| fichier | Objet File (et non nom de fichier) à charger. | Oui | ||
| objectif | enum | L’objectif visé du fichier téléchargé. L’un des : – assistants : Utilisé dans l’API Assistants –batch : Utilisé dans l’API Batch – fine-tune : Utilisé pour l’ajustement – evals : Utilisé pour les jeux de données d’évaluationValeurs possibles : assistants, , batchfine-tune,evals |
Oui |
OpenAI.CreateFineTuningCheckpointPermissionRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| project_ids | tableau de chaînes | Identificateurs de projet auxquels accorder l’accès. | Oui |
OpenAI.CreateFineTuningJobRequest
Modèles valides :
babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| hyperparameters | OpenAI.CreateFineTuningJobRequestHyperparameters | Non | ||
| └ taille_du_lot | chaîne ou entier | Non | auto | |
| ─ learning_rate_multiplier | chaîne ou nombre | Non | ||
| └n_epochs | chaîne ou entier | Non | auto | |
| Intégrations | tableau d’OpenAI.CreateFineTuningJobRequestIntegrations ou null | Liste des intégrations à activer pour votre travail d’ajustement. | Non | |
| metadata | OpenAI.Metadata ou null | Non | ||
| method | OpenAI.FineTuneMethod | Méthode utilisée pour l’ajustement. | Non | |
| modèle | chaîne (voir les modèles valides ci-dessous) | Nom du modèle à ajuster. Vous pouvez sélectionner l’un des |
Oui | |
| seed | entier ou null | La graine contrôle la reproductibilité du travail. La transmission de la même graine et des mêmes paramètres de travail doit produire les mêmes résultats, mais peut différer dans de rares cas. Si une graine n’est pas spécifiée, une graine est générée pour vous. |
Non | |
| suffixe | chaîne ou nulle | Chaîne de jusqu’à 64 caractères qui seront ajoutés au nom de votre modèle affiné. Par exemple, un suffix « custom-model-name » produit un nom de modèle comme ft:gpt-4o-mini:openai:custom-model-name:7p4lURel. |
Non | |
| fichier d'entraînement | ficelle | ID d’un fichier chargé qui contient des données de formation. Consultez Fichier de chargement pour savoir comment charger un fichier. Votre jeu de données doit être mis en forme en tant que fichier JSONL. En outre, vous devez charger votre fichier à l’aide de l’objectif fine-tune.Le contenu du fichier doit différer selon que le modèle utilise la conversation, le format de saisie semi-automatique ou si la méthode de réglage précis utilise le format de préférence . Consultez le guide affining pour plus de détails. |
Oui | |
| fichier_de_validation | chaîne ou nulle | ID d’un fichier chargé qui contient des données de validation. Si vous fournissez ce fichier, les données sont utilisées pour générer la validation métriques régulièrement pendant l’ajustement. Ces métriques peuvent être consultées dans le fichier de résultats de l’ajustement. Les mêmes données ne doivent pas être présentes dans les fichiers d’apprentissage et de validation. Votre jeu de données doit être mis en forme en tant que fichier JSONL. Vous devez charger votre fichier à l’aide de l’objectif fine-tune.Consultez le guide affining pour plus de détails. |
Non |
OpenAI.CreateFineTuningJobRequestHyperparameters
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| taille de lot | chaîne ou entier | Non | ||
| multiplicateur de taux d'apprentissage | chaîne ou nombre | Non | ||
| nombre_d'époques | chaîne ou entier | Non |
OpenAI.CreateFineTuningJobRequestIntegrations
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Valeurs possibles : wandb |
Oui | |
| wandb | OpenAI.CreateFineTuningJobRequestIntegrationsWandb | Oui |
OpenAI.CreateFineTuningJobRequestIntegrationsWandb
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Entité | chaîne ou nulle | Non | ||
| nom | chaîne ou nulle | Non | ||
| project | ficelle | Oui | ||
| tags | tableau de chaînes | Non |
OpenAI.CreateMessageRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| attachments | tableau d’OpenAI.CreateMessageRequestAttachments ou null | Non | ||
| contenu | chaîne ou tableau d’OpenAI.MessageContentImageFileObject ou OpenAI.MessageContentImageUrlObject ou OpenAI.MessageRequestContentTextObject | Oui | ||
| metadata | OpenAI.Metadata ou null | Non | ||
| role | enum | Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes : - user : indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur.- assistant : indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation.Valeurs possibles : user, assistant |
Oui |
OpenAI.CreateMessageRequestAttachments
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiant_de_fichier | ficelle | Non | ||
| outils | tableau d’OpenAI.AssistantToolsCode ou OpenAI.AssistantToolsFileSearchTypeOnly | Non |
OpenAI.CreateResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| background | booléen ou null | Non | ||
| conversation | OpenAI.ConversationParam ou null | Non | ||
| inclure | tableau d’OpenAI.IncludeEnum ou null | Non | ||
| entrée | OpenAI.InputParam | Entrées de texte, d’image ou de fichier dans le modèle, utilisées pour générer une réponse. Pour en savoir plus: - Entrées et sorties texte - Entrées d’image - Entrées de fichier - État de conversation - Fonction appelant |
Non | |
| instructions | chaîne ou nulle | Non | ||
| max_output_tokens | entier ou null | Non | ||
| max_tool_calls | entier ou null | Non | ||
| metadata | OpenAI.Metadata ou null | Non | ||
| modèle | ficelle | ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAIoffre un large éventail de modèles avec différentes fonctionnalités, performances caractéristiques et points de prix. Reportez-vous au guide du modèle pour parcourir et comparer les modèles disponibles. |
Non | |
| parallel_tool_calls | booléen ou null | Non | ||
| previous_response_id | chaîne ou nulle | Non | ||
| prompt | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. En savoir plus. |
Non | |
| prompt_cache_key | ficelle | Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ.
En savoir plus. |
Non | |
| prompt_cache_retention | chaîne ou nulle | Non | ||
| reasoning | OpenAI.Reasoning ou Null | Non | ||
| safety_identifier | ficelle | Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI. Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus. |
Non | |
| store | booléen ou null | Non | ||
| ruisseau | booléen ou null | Non | ||
| stream_options | OpenAI.ResponseStreamOptions ou null | Non | ||
| température | nombre ou null | Non | ||
| texte | OpenAI.ResponseTextParam | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus: - Entrées et sorties texte - Sorties structurées |
Non | |
| tool_choice | OpenAI.ToolChoiceParam | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération une réponse. Voir le tools paramètre pour voir comment spécifier les outilsle modèle peut effectuer un appel. |
Non | |
| outils | OpenAI.ToolsArray | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.Nous prenons en charge les catégories d’outils suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent le Les capacités du modèle, comme recherche web ou outils intégrés. - Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur Outils MCP. - Appels de fonction (outils personnalisés) : fonctions définies par vous, activation du modèle pour appeler votre propre code avec des arguments fortement typés et sorties. En savoir plus sur fonction appelant. Vous pouvez également utiliser outils personnalisés pour appeler votre propre code. |
Non | |
| top_logprobs | entier ou null | Non | ||
| top_p | nombre ou null | Non | ||
| truncation | chaîne ou nulle | Non | ||
| utilisateur | chaîne (déconseillée) | Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.Identificateur stable pour vos utilisateurs finaux. Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus. |
Non |
OpenAI.CreateRunRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| additional_instructions | chaîne ou nulle | Ajoute des instructions supplémentaires à la fin des instructions de l’exécution. Cela est utile pour modifier le comportement lors de chaque exécution sans remplacer d’autres instructions. | Non | |
| additional_messages | tableau d’OpenAI.CreateMessageRequest ou null | Ajoute des messages supplémentaires au thread avant de créer l’exécution. | Non | |
| assistant_id | ficelle | ID de l’Assistant à utiliser pour exécuter cette exécution. | Oui | |
| instructions | chaîne ou nulle | Remplace les instructions de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
| max_completion_tokens | entier ou null | Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
Non | |
| max_prompt_tokens | entier ou null | Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
Non | |
| metadata | OpenAI.Metadata ou null | Non | ||
| modèle | ficelle | ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | Non | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | Non | |
| effort de raisonnement | OpenAI.ReasoningEffort | Limite l’effort sur le raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduirel’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés le raisonnement dans une réponse. - gpt-5.1
nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max. |
Non | |
| format_de_réponse | OpenAI.AssistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important :* lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non | |
| ruisseau | booléen ou null | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE]. |
Non | |
| température | nombre ou null | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. | Non | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils avant de répondre à l’utilisateur.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
Non | |
| outils | tableau d’OpenAI.AssistantTool | Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
| top_p | nombre ou null | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
Non | |
| truncation_strategy | OpenAI.TruncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | Non |
OpenAI.CreateThreadAndRunRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| assistant_id | ficelle | ID de l’Assistant à utiliser pour exécuter cette exécution. | Oui | |
| instructions | chaîne ou nulle | Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
| max_completion_tokens | entier ou null | Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
Non | |
| max_prompt_tokens | entier ou null | Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
Non | |
| metadata | OpenAI.Metadata ou null | Non | ||
| modèle | ficelle | ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | Non | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | Non | |
| format_de_réponse | OpenAI.AssistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important :* lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non | |
| ruisseau | booléen ou null | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE]. |
Non | |
| température | nombre ou null | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. | Non | |
| fil | OpenAI.CreateThreadRequest | Options de création d’un thread. Si aucun thread n’est fourni lors de l’exécution d’un thread demande, un thread vide est créé. |
Non | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils avant de répondre à l’utilisateur.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
Non | |
| tool_resources | OpenAI.CreateThreadAndRunRequestToolResources ou null | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Non | |
| outils | tableau d’OpenAI.AssistantTool | Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
| top_p | nombre ou null | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
Non | |
| truncation_strategy | OpenAI.TruncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | Non |
OpenAI.CreateThreadAndRunRequestToolResources
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code_interpreter | OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter | Non | ||
| file_search | OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch | Non |
OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiants_de_fichiers | tableau de chaînes | Non | [] |
OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| vector_store_ids | tableau de chaînes | Non |
OpenAI.CreateThreadRequest
Options de création d’un thread. Si aucun thread n’est fourni lors de l’exécution d’une requête, un thread vide est créé.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| messages | tableau d’OpenAI.CreateMessageRequest | Liste des messages à utiliser pour démarrer le thread. | Non | |
| metadata | OpenAI.Metadata ou null | Non | ||
| tool_resources | OpenAI.CreateThreadRequestToolResources ou null | Non |
OpenAI.CreateThreadRequestToolResources
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code_interpreter | OpenAI.CreateThreadRequestToolResourcesCodeInterpreter | Non | ||
| file_search | objet ou objet | Non |
OpenAI.CreateThreadRequestToolResourcesCodeInterpreter
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiants_de_fichiers | tableau de chaînes | Non |
OpenAI.CreateVectorStoreFileBatchRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes ou null | Non | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. |
Non | |
| identifiants_de_fichiers | tableau de chaînes | Liste des ID de fichier que le magasin vectoriel doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. S’ils attributes sont fournis ou chunking_strategy fournis, ils sont appliqués à tous les fichiers du lot. Mutuellement exclusif avec files. |
Non | |
| Fichiers | array of OpenAI.CreateVectorStoreFileRequest | Liste d’objets qui incluent chacun un file_id plus facultatif attributes ou chunking_strategy. Utilisez cette option lorsque vous devez remplacer les métadonnées pour des fichiers spécifiques.
attributes Global ou chunking_strategy sera ignoré et doit être spécifié pour chaque fichier. Mutuellement exclusif avec file_ids. |
Non |
OpenAI.CreateVectorStoreFileRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes ou null | Non | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. |
Non | |
| identifiant_de_fichier | ficelle | ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
Oui |
OpenAI.CreateVectorStoreRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. |
Non | |
| descriptif | ficelle | Description du magasin de vecteurs. Peut être utilisé pour décrire l’objectif du magasin vectoriel. | Non | |
| expire_après | OpenAI.VectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | Non | |
| identifiants_de_fichiers | tableau de chaînes | Liste des ID de fichier que le magasin vectoriel doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
Non | |
| metadata | OpenAI.Metadata ou null | Non | ||
| nom | ficelle | Le nom du magasin de vecteurs. | Non |
OpenAI.CustomGrammarFormatParam
Une grammaire définie par l’utilisateur.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Définition | ficelle | La définition de la grammaire. | Oui | |
| syntax | OpenAI.GrammarSyntax1 | Oui | ||
| type | enum | Format grammatical. A toujours la valeur grammar.Valeurs possibles : grammar |
Oui |
OpenAI.CustomTextFormatParam
Texte libre et sans contraintes.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Format de texte sans contrainte. A toujours la valeur text.Valeurs possibles : text |
Oui |
OpenAI.CustomToolChatCompletions
Un outil personnalisé qui traite les entrées en utilisant un format spécifié.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| coutume | OpenAI.CustomToolChatCompletionsCustom | Oui | ||
| └─ Description | ficelle | Non | ||
| └─ Format | OpenAI.CustomToolChatCompletionsCustomFormatText ou OpenAI.CustomToolChatCompletionsCustomFormatGrammar | Non | ||
| └─ Nom | ficelle | Oui | ||
| type | enum | Le type d’outil personnalisé. A toujours la valeur custom.Valeurs possibles : custom |
Oui |
OpenAI.CustomToolChatCompletionsCustom
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| descriptif | ficelle | Non | ||
| format | OpenAI.CustomToolChatCompletionsCustomFormatText ou OpenAI.CustomToolChatCompletionsCustomFormatGrammar | Non | ||
| nom | ficelle | Oui |
OpenAI.CustomToolChatCompletionsCustomFormatGrammar
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Grammaire | OpenAI.CustomToolChatCompletionsCustomFormatGrammarMar | Oui | ||
| Définition de └ ; | ficelle | Oui | ||
| Syntaxe └> | enum | Valeurs possibles : lark, regex |
Oui | |
| type | enum | Valeurs possibles : grammar |
Oui |
OpenAI.CustomToolChatCompletionsCustomFormatGrammarMar
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Définition | ficelle | Oui | ||
| syntax | enum | Valeurs possibles : lark, regex |
Oui |
OpenAI.CustomToolChatCompletionsCustomFormatText
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Valeurs possibles : text |
Oui |
OpenAI.CustomToolParam
Un outil personnalisé qui traite les entrées en utilisant un format spécifié. En savoir plus sur les outils personnalisés
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| descriptif | ficelle | Description optionnelle de l’outil personnalisé, utilisée pour fournir plus de contexte. | Non | |
| format | OpenAI.CustomToolParamFormat | Le format d’entrée de l’outil personnalisé. Par défaut, c’est le texte non contraint. | Non | |
| └─ Type | OpenAI.CustomToolParamFormatType | Oui | ||
| nom | ficelle | Le nom de l’outil personnalisé, utilisé pour l’identifier lors des appels d’outils. | Oui | |
| type | enum | Le type d’outil personnalisé. A toujours la valeur custom.Valeurs possibles : custom |
Oui |
OpenAI.CustomToolParamFormat
Le format d’entrée de l’outil personnalisé. Par défaut, c’est le texte non contraint.
Discriminateur pour OpenAI.CustomToolParamFormat
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
text |
OpenAI.CustomTextFormatParam |
grammar |
OpenAI.CustomGrammarFormatParam |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.CustomToolParamFormatType | Oui |
OpenAI.CustomToolParamFormatType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | textgrammar |
OpenAI.DeleteFileResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| supprimé | booléen | Oui | ||
| id | ficelle | Oui | ||
| objet | enum | Valeurs possibles : file |
Oui |
OpenAI.DeleteFineTuningCheckpointPermissionResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| supprimé | booléen | Indique si l’autorisation de point de contrôle de modèle affinée a été correctement supprimée. | Oui | |
| id | ficelle | ID de l’autorisation de point de contrôle de modèle affinée qui a été supprimée. | Oui | |
| objet | enum | Type d’objet, qui est toujours « checkpoint.permission ». Valeurs possibles : checkpoint.permission |
Oui |
OpenAI.DeleteMessageResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| supprimé | booléen | Oui | ||
| id | ficelle | Oui | ||
| objet | enum | Valeurs possibles : thread.message.deleted |
Oui |
OpenAI.DeleteModelResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| supprimé | booléen | Oui | ||
| id | ficelle | Oui | ||
| objet | ficelle | Oui |
OpenAI.DeleteThreadResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| supprimé | booléen | Oui | ||
| id | ficelle | Oui | ||
| objet | enum | Valeurs possibles : thread.deleted |
Oui |
OpenAI.DeleteVectorStoreFileResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| supprimé | booléen | Oui | ||
| id | ficelle | Oui | ||
| objet | enum | Valeurs possibles : vector_store.file.deleted |
Oui |
OpenAI.DeleteVectorStoreResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| supprimé | booléen | Oui | ||
| id | ficelle | Oui | ||
| objet | enum | Valeurs possibles : vector_store.deleted |
Oui |
OpenAI.DeletedConversationResource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| supprimé | booléen | Oui | ||
| id | ficelle | Oui | ||
| objet | enum | Valeurs possibles : conversation.deleted |
Oui |
OpenAI.DoubleClickAction
L'action de double clic
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action à double-clic, cette propriété est toujours définie sur double_click.Valeurs possibles : double_click |
Oui | |
| x | entier | Coordonnée x où le double-clic s’est produit. | Oui | |
| y | entier | Coordonnée y où le double-clic s’est produit. | Oui |
OpenAI.Drag
Action glisser.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| chemin | tableau d’OpenAI.DragPoint | Tableau de coordonnées représentant le parcours de l'action de glisser. Les coordonnées s’affichent sous forme de tableau d’objets, par exemple <br> [<br> { x: 100, y: 200 },<br> { x: 200, y: 300 }<br> ]<br> |
Oui | |
| type | enum | Spécifie le type d’événement. Pour une action de glisser, cette propriété est toujours défini sur drag.Valeurs possibles : drag |
Oui |
OpenAI.DragPoint
Paire de coordonnées x/y, par exemple { x: 100, y: 200 }.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| x | entier | Coordonnée x. | Oui | |
| y | entier | La coordonnée y. | Oui |
OpenAI.EasyInputMessage
Un message d'entrée pour le modèle avec un rôle indiquant une hiérarchie de suivi des instructions. Les instructions fournies avec le rôle developer ou system priment sur les instructions fournies avec le rôle user. Les messages avec le assistant rôle sont présumés avoir été générés par le modèle dans les interactions précédentes.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | string ou OpenAI.InputMessageContentList | Texte, image ou entrée audio du modèle utilisé pour générer une réponse. Peut également contenir des réponses d’assistant précédentes. |
Oui | |
| role | enum | Rôle de la saisie de message. Un des user, , assistant, systemoudeveloper.Valeurs possibles : user, , assistantsystem,developer |
Oui | |
| type | enum | Type de l’entrée de message. A toujours la valeur message.Valeurs possibles : message |
Oui |
OpenAI.Embedding
Représente un vecteur d'intégration retourné par l'endpoint d'intégration.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| embedding | tableau de nombres | Vecteur d’incorporation, qui est une liste de floats. La longueur du vecteur dépend du modèle tel qu’indiqué dans le guide d’incorporation. | Oui | |
| index | entier | Index de l’incorporation dans la liste des incorporations. | Oui | |
| objet | enum | Type d’objet, qui est toujours « embedding ». Valeurs possibles : embedding |
Oui |
OpenAI.Eval
Objet Eval avec des critères de configuration et de test de source de données. Une évaluation représente une tâche à effectuer pour votre intégration LLM. comme ce qui suit :
- Améliorer la qualité de mon chatbot
- Découvrez comment mon chatbot gère le support client
- Vérifiez si o4-mini est préférable à ma casse que gpt-4o
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| date_de_création | entier | Horodatage Unix (en secondes) de la création de l’évaluation. | Oui | |
| data_source_config | OpenAI.EvalCustomDataSourceConfig ou OpenAI.EvalLogsDataSourceConfig ou OpenAI.EvalStoredCompletionsDataSourceConfig | Configuration des sources de données utilisées dans les exécutions de l’évaluation. | Oui | |
| id | ficelle | Identificateur unique de l’évaluation. | Oui | |
| metadata | OpenAI.Metadata ou null | Oui | ||
| nom | ficelle | Le nom de l’évaluation. | Oui | |
| objet | enum | Type d’objet. Valeurs possibles : eval |
Oui | |
| critères_de_test | tableau d’OpenAI.CreateEvalLabelModelGrader ou OpenAI.EvalGraderStringCheck ou OpenAI.EvalGraderTextSimilarity ou OpenAI.EvalGraderPython ou OpenAI.EvalGraderScoreModel ou EvalGraderEndpoint | Liste des critères de test. | Oui |
OpenAI.EvalApiError
Objet représentant une réponse d’erreur de l’API Eval.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code | ficelle | Code d’erreur. | Oui | |
| message | ficelle | Message d’erreur. | Oui |
OpenAI.EvalCustomDataSourceConfig
Un CustomDataSourceConfig qui spécifie le schéma de vos espaces de noms item et éventuellement sample.
Le schéma de réponse définit la forme des données qui seront :
- Utilisé pour définir vos critères de test et
- Quelles données sont requises lors de la création d’une exécution
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| schéma | objet | Schéma JSON pour les éléments de source de données d’exécution. Découvrez comment créer des schémas JSON ici. |
Oui | |
| type | enum | Le type de source de données. A toujours la valeur custom.Valeurs possibles : custom |
Oui |
OpenAI.EvalGraderPython
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| image_tag | ficelle | Balise d’image à utiliser pour le script Python. | Non | |
| nom | ficelle | Nom du correcteur. | Oui | |
| seuil de passage | nombre | Seuil du score. | Non | |
| source | ficelle | Code source du script Python. | Oui | |
| type | enum | Le type d’objet, qui est toujours python.Valeurs possibles : python |
Oui |
OpenAI.EvalGraderScoreModel
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| entrée | tableau d’OpenAI.EvalItem | Les messages d’entrée évalués par le classateur. Prend en charge le texte, le texte de sortie, l’image d’entrée et les blocs de contenu audio d’entrée, et peut inclure des chaînes de modèle. | Oui | |
| modèle | ficelle | Modèle à utiliser pour l’évaluation. | Oui | |
| nom | ficelle | Nom du correcteur. | Oui | |
| seuil de passage | nombre | Seuil du score. | Non | |
| range | tableau de nombres | Échelle du score. La valeur par défaut est [0, 1]. |
Non | |
| paramètres d'échantillonnage | OpenAI.EvalGraderScoreModelSamplingParams | Non | ||
| └max_completions_tokens | entier ou null | Non | ||
| └effort_de_raisonnement | OpenAI.ReasoningEffort | Limite l’effort sur le raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduirel’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés le raisonnement dans une réponse. - gpt-5.1
nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max. |
Non | |
| Graine └─ | entier ou null | Non | ||
| └─ Température | nombre ou null | Non | ||
| └─ top_p | nombre ou null | Non | 1 | |
| type | enum | Le type d’objet, qui est toujours score_model.Valeurs possibles : score_model |
Oui |
OpenAI.EvalGraderScoreModelSamplingParams
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| max_completions_tokens | entier ou null | Non | ||
| effort de raisonnement | OpenAI.ReasoningEffort | Limite l’effort sur le raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduirel’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés le raisonnement dans une réponse. - gpt-5.1
nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max. |
Non | |
| seed | entier ou null | Non | ||
| température | nombre ou null | Non | ||
| top_p | nombre ou null | Non |
OpenAI.EvalGraderStringCheck
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| entrée | ficelle | Le texte d’entrée. Cela peut inclure des chaînes de modèles. | Oui | |
| nom | ficelle | Nom du correcteur. | Oui | |
| opération | enum | Opération de vérification de chaîne à effectuer. Un de eq, ne, like, ou ilike.Valeurs possibles : eq, , nelike,ilike |
Oui | |
| référence | ficelle | Le texte de référence. Cela peut inclure des chaînes de modèles. | Oui | |
| type | enum | Le type d’objet, qui est toujours string_check.Valeurs possibles : string_check |
Oui |
OpenAI.EvalGraderTextSimilarity
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| métrique d'évaluation | enum | Métrique d’évaluation à utiliser. Un de cosine, fuzzy_match, bleu,gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5ou rouge_l.Valeurs possibles : cosine, , , fuzzy_matchbleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
Oui | |
| entrée | ficelle | Le texte en cours d'évaluation. | Oui | |
| nom | ficelle | Nom du correcteur. | Oui | |
| seuil de passage | nombre | Seuil du score. | Oui | |
| référence | ficelle | Le texte servant de référence pour l'évaluation. | Oui | |
| type | enum | Le type de niveleuse. Valeurs possibles : text_similarity |
Oui |
OpenAI.EvalItem
Un message d'entrée pour le modèle avec un rôle indiquant une hiérarchie de suivi des instructions. Les instructions fournies avec le rôle developer ou system priment sur les instructions fournies avec le rôle user. Les messages avec le assistant rôle sont présumés avoir été générés par le modèle dans les interactions précédentes.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | OpenAI.EvalItemContent | Entrées dans le modèle : peut contenir des chaînes de modèle. Prend en charge le texte, le texte de sortie, les images d’entrée et l’audio d’entrée, sous la forme d’un élément unique ou d’un tableau d’éléments. | Oui | |
| role | enum | Rôle de la saisie de message. Un des user, , assistant, systemoudeveloper.Valeurs possibles : user, , assistantsystem,developer |
Oui | |
| type | enum | Type de l’entrée de message. A toujours la valeur message.Valeurs possibles : message |
Non |
OpenAI.EvalItemContent
Entrées dans le modèle : peut contenir des chaînes de modèle. Prend en charge le texte, le texte de sortie, les images d’entrée et l’audio d’entrée, sous la forme d’un élément unique ou d’un tableau d’éléments.
Type : OpenAI.EvalItemContentItem ou OpenAI.EvalItemContentArray
Entrées dans le modèle : peut contenir des chaînes de modèle. Prend en charge le texte, le texte de sortie, les images d’entrée et l’audio d’entrée, sous la forme d’un élément unique ou d’un tableau d’éléments.
OpenAI.EvalItemContentArray
Liste des entrées, chacune pouvant être un texte d’entrée, un texte de sortie, une image d’entrée ou un objet audio d’entrée.
Tableau de : OpenAI.EvalItemContentItem
OpenAI.EvalItemContentItem
Élément de contenu unique : texte d’entrée, texte de sortie, image d’entrée ou audio d’entrée.
Type : OpenAI.EvalItemContentText ou OpenAI.EvalItemContentItemObject
Élément de contenu unique : texte d’entrée, texte de sortie, image d’entrée ou audio d’entrée.
OpenAI.EvalItemContentItemObject
Élément de contenu unique : texte d’entrée, texte de sortie, image d’entrée ou audio d’entrée.
Discriminateur pour OpenAI.EvalItemContentItemObject
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
output_text |
OpenAI.EvalItemContentOutputText |
input_image |
OpenAI.EvalItemInputImage |
input_audio |
OpenAI.InputAudio |
input_text |
OpenAI.EvalItemContentItemObjectInputTextContentContent |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.EvalItemContentItemObjectType | Oui |
OpenAI.EvalItemContentItemObjectInputTextContentContent
Entrée de texte dans le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Entrée de texte dans le modèle. | Oui | |
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_text.Valeurs possibles : input_text |
Oui |
OpenAI.EvalItemContentItemObjectType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | input_textoutput_textinput_imageinput_audio |
OpenAI.EvalItemContentOutputText
Sortie de texte du modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Le texte généré par le modèle. | Oui | |
| type | enum | Type du texte de sortie. A toujours la valeur output_text.Valeurs possibles : output_text |
Oui |
OpenAI.EvalItemContentText
Entrée de texte dans le modèle.
Type : string
OpenAI.EvalItemInputImage
Bloc d’entrée d’image utilisé dans les tableaux de contenu EvalItem.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| detail | ficelle | Niveau de détail de l’image à envoyer au modèle. Valeurs possibles : high, low ou auto. La valeur par défaut est auto. |
Non | |
| image_url | ficelle | URL de l’entrée d’image. | Oui | |
| type | enum | Type de l’entrée d’image. A toujours la valeur input_image.Valeurs possibles : input_image |
Oui |
OpenAI.EvalJsonlFileContentSource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | tableau d’OpenAI.EvalJsonlFileContentSourceContentContent | Contenu du fichier jsonl. | Oui | |
| type | enum | Type de source jsonl. A toujours la valeur file_content.Valeurs possibles : file_content |
Oui |
OpenAI.EvalJsonlFileContentSourceContentContent
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item | objet | Oui | ||
| échantillon | objet | Non |
OpenAI.EvalJsonlFileIdSource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| id | ficelle | L’identificateur du fichier. | Oui | |
| type | enum | Type de source jsonl. A toujours la valeur file_id.Valeurs possibles : file_id |
Oui |
OpenAI.EvalList
Objet représentant une liste d'évaluations.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.Eval | Tableau d’objets d’évaluation. | Oui | |
| premier_identifiant | ficelle | Identificateur du premier eval dans le tableau de données. | Oui | |
| has_more | booléen | Indique s'il existe d'autres évaluations disponibles. | Oui | |
| last_id | ficelle | Identificateur du dernier eval dans le tableau de données. | Oui | |
| objet | enum | Type de cet objet. Toujours défini sur « list ». Valeurs possibles : list |
Oui |
OpenAI.EvalLogsDataSourceConfig
LogsDataSourceConfig qui spécifie la propriété de métadonnées de votre requête de journaux d’activité.
Il s’agit généralement de métadonnées telles que usecase=chatbot ou prompt-version=v2, etc. Le schéma retourné par cette configuration de source de données est utilisé pour définir les variables disponibles dans vos valeurs d’évaluation.
item et sample sont tous les deux définis lors de l’utilisation de cette configuration de source de données.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| metadata | OpenAI.Metadata ou null | Non | ||
| schéma | objet | Schéma JSON pour les éléments de source de données d’exécution. Découvrez comment créer des schémas JSON ici. |
Oui | |
| type | enum | Le type de source de données. A toujours la valeur logs.Valeurs possibles : logs |
Oui |
OpenAI.EvalResponsesSource
Objet EvalResponsesSource décrivant une configuration de source de données d’exécution.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| created_after | entier ou null | Non | ||
| créé_avant | entier ou null | Non | ||
| instructions_search | chaîne ou nulle | Non | ||
| metadata | objet ou null | Non | ||
| modèle | chaîne ou nulle | Non | ||
| effort de raisonnement | OpenAI.ReasoningEffort ou null | Non | ||
| température | nombre ou null | Non | ||
| outils | tableau de chaînes ou null | Non | ||
| top_p | nombre ou null | Non | ||
| type | enum | Type de source de données d’exécution. A toujours la valeur responses.Valeurs possibles : responses |
Oui | |
| users | tableau de chaînes ou null | Non |
OpenAI.EvalRun
Schéma représentant un processus d’évaluation.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| date_de_création | entier | Horodatage Unix (en secondes) lorsqu’une exécution du rapport d’évaluation a été créée. | Oui | |
| source de données | OpenAI.CreateEvalJsonlRunDataSource ou OpenAI.CreateEvalCompletionsRunDataSource ou OpenAI.CreateEvalResponsesRunDataSource | Informations sur la source de données de l’exécution. | Oui | |
| erreur | OpenAI.EvalApiError | Objet représentant une réponse d’erreur de l’API Eval. | Oui | |
| eval_id | ficelle | Identificateur de l’évaluation associée. | Oui | |
| id | ficelle | Identificateur unique pour la réalisation de l’évaluation. | Oui | |
| metadata | OpenAI.Metadata ou null | Oui | ||
| modèle | ficelle | Modèle évalué, le cas échéant. | Oui | |
| nom | ficelle | Nom de l’exécution de l’évaluation. | Oui | |
| objet | enum | Type de l’objet. Toujours « eval.run ». Valeurs possibles : eval.run |
Oui | |
| per_model_usage | tableau d’OpenAI.EvalRunPerModelUsage | Statistiques d’utilisation pour chaque modèle pendant l’exécution de l’évaluation. | Oui | |
| résultats_par_critères_de_test | tableau d’OpenAI.EvalRunPerTestingCriteriaResults | Résultats par critères de test appliqués pendant l’exécution de l’évaluation. | Oui | |
| report_url | ficelle | URL du rapport d’exécution d’évaluation rendu sur le tableau de bord de l’interface utilisateur. | Oui | |
| nombre_de_résultats | OpenAI.EvalRunResultCounts | Oui | ||
| └' erreur | entier | Oui | ||
| Échec | entier | Oui | ||
| └─ réussi | entier | Oui | ||
| └─ Total | entier | Oui | ||
| status | ficelle | État de l’exécution de l’évaluation. | Oui |
OpenAI.EvalRunList
Objet représentant une liste d’exécutions d’une évaluation.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.EvalRun | Tableau d’objets d’exécution d’évaluation. | Oui | |
| premier_identifiant | ficelle | Identificateur de la première exécution d’évaluation dans le tableau de données. | Oui | |
| has_more | booléen | Indique s'il existe d'autres évaluations disponibles. | Oui | |
| last_id | ficelle | Identificateur de la dernière exécution d'évaluation dans le tableau de données. | Oui | |
| objet | enum | Type de cet objet. Toujours défini sur « list ». Valeurs possibles : list |
Oui |
OpenAI.EvalRunOutputItem
Schéma représentant un élément de sortie d'une exécution d'évaluation.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| date_de_création | entier | Horodatage Unix (en secondes) lorsqu’une exécution du rapport d’évaluation a été créée. | Oui | |
| datasource_item | objet | Détails de l’élément de source de données d’entrée. | Oui | |
| datasource_item_id | entier | Identificateur de l’élément de source de données. | Oui | |
| eval_id | ficelle | Identificateur du groupe d’évaluation. | Oui | |
| id | ficelle | Identificateur unique de l’élément de sortie d’exécution d’évaluation. | Oui | |
| objet | enum | Type de l’objet. Toujours « eval.run.output_item ». Valeurs possibles : eval.run.output_item |
Oui | |
| results | tableau d’OpenAI.EvalRunOutputItemResult | Liste des résultats du classateur pour cet élément de sortie. | Oui | |
| run_id | ficelle | Identificateur de l’exécution d’évaluation associée à cet élément de sortie. | Oui | |
| échantillon | OpenAI.EvalRunOutputItemSample | Oui | ||
| Erreur └ ; | OpenAI.EvalApiError | Objet représentant une réponse d’erreur de l’API Eval. | Oui | |
| └─ raison_de_fin | ficelle | Oui | ||
| └─ Entrée | tableau d’OpenAI.EvalRunOutputItemSampleInput | Oui | ||
| └max_completion_tokens | entier | Oui | ||
| └─ Modèle | ficelle | Oui | ||
| └─ Sortie | tableau d’OpenAI.EvalRunOutputItemSampleOutput | Oui | ||
| Graine └─ | entier | Oui | ||
| └─ Température | nombre | Oui | ||
| └─ top_p | nombre | Oui | ||
| └─ utilisation | OpenAI.EvalRunOutputItemSampleUsage | Oui | ||
| status | ficelle | État de l’exécution de l’évaluation. | Oui |
OpenAI.EvalRunOutputItemList
Objet représentant une liste d’éléments de sortie pour une exécution d’évaluation.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.EvalRunOutputItem | Tableau d’objets d’éléments de sortie de l’exécution d’évaluation. | Oui | |
| premier_identifiant | ficelle | Identificateur du premier élément de sortie d’exécution d’évaluation dans le tableau de données. | Oui | |
| has_more | booléen | Indique s’il existe plus d’éléments de sortie d’exécutions d’évaluations disponibles. | Oui | |
| last_id | ficelle | Identificateur du dernier élément de sortie du processus d'évaluation dans le tableau de données. | Oui | |
| objet | enum | Type de cet objet. Toujours défini sur « list ». Valeurs possibles : list |
Oui |
OpenAI.EvalRunOutputItemResult
Résultat d’un seul gradeur pour un élément de sortie d’exécution d’évaluation.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| nom | ficelle | Nom du correcteur. | Oui | |
| Passé | booléen | Indique si le classateur a considéré la sortie comme une passe. | Oui | |
| échantillon | objet ou null | Exemples facultatifs ou données intermédiaires produites par le classateur. | Non | |
| score | nombre | Score numérique produit par le classateur. | Oui | |
| type | ficelle | Type de grade (par exemple, « string-check-grader »). | Non |
OpenAI.EvalRunOutputItemSample
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| erreur | OpenAI.EvalApiError | Objet représentant une réponse d’erreur de l’API Eval. | Oui | |
| finish_reason | ficelle | Oui | ||
| entrée | tableau d’OpenAI.EvalRunOutputItemSampleInput | Oui | ||
| max_completion_tokens | entier | Oui | ||
| modèle | ficelle | Oui | ||
| output | tableau d’OpenAI.EvalRunOutputItemSampleOutput | Oui | ||
| seed | entier | Oui | ||
| température | nombre | Oui | ||
| top_p | nombre | Oui | ||
| usage | OpenAI.EvalRunOutputItemSampleUsage | Oui |
OpenAI.EvalRunOutputItemSampleInput
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | ficelle | Oui | ||
| role | ficelle | Oui |
OpenAI.EvalRunOutputItemSampleOutput
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | ficelle | Non | ||
| role | ficelle | Non |
OpenAI.EvalRunOutputItemSampleUsage
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| cached_tokens | entier | Oui | ||
| completion_tokens | entier | Oui | ||
| prompt_tokens | entier | Oui | ||
| total_tokens | entier | Oui |
OpenAI.EvalRunPerModelUsage
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| cached_tokens | entier | Oui | ||
| completion_tokens | entier | Oui | ||
| invocation_count | entier | Oui | ||
| model_name | ficelle | Oui | ||
| prompt_tokens | entier | Oui | ||
| total_tokens | entier | Oui |
OpenAI.EvalRunPerTestingCriteriaResults
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| a échoué | entier | Oui | ||
| Passé | entier | Oui | ||
| critères_de_test | ficelle | Oui |
OpenAI.EvalRunResultCounts
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| erreur | entier | Oui | ||
| a échoué | entier | Oui | ||
| Passé | entier | Oui | ||
| total | entier | Oui |
OpenAI.EvalStoredCompletionsDataSourceConfig
Déconseillé en faveur de LogsDataSourceConfig.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| metadata | OpenAI.Metadata ou null | Non | ||
| schéma | objet | Schéma JSON pour les éléments de source de données d’exécution. Découvrez comment créer des schémas JSON ici. |
Oui | |
| type | enum | Le type de source de données. A toujours la valeur stored_completions.Valeurs possibles : stored_completions |
Oui |
OpenAI.EvalStoredCompletionsSource
Configuration StoredCompletionsRunDataSource décrivant un ensemble de filtres
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| created_after | entier ou null | Non | ||
| créé_avant | entier ou null | Non | ||
| limit | entier ou null | Non | ||
| metadata | OpenAI.Metadata ou null | Non | ||
| modèle | chaîne ou nulle | Non | ||
| type | enum | Le yype de source. A toujours la valeur stored_completions.Valeurs possibles : stored_completions |
Oui |
OpenAI.FileCitationBody
Citation d'un fichier.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiant_de_fichier | ficelle | ID du fichier. | Oui | |
| filename | ficelle | Nom du fichier cité. | Oui | |
| index | entier | Index du fichier dans la liste des fichiers. | Oui | |
| type | enum | Type de la citation de fichier. A toujours la valeur file_citation.Valeurs possibles : file_citation |
Oui |
OpenAI.FilePath
Chemin d’accès à un fichier.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiant_de_fichier | ficelle | ID du fichier. | Oui | |
| index | entier | Index du fichier dans la liste des fichiers. | Oui | |
| type | enum | Type du chemin d’accès au fichier. A toujours la valeur file_path.Valeurs possibles : file_path |
Oui |
OpenAI.FileSearchRanker
Outil de classement à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, le classificateur auto sera utilisé.
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | autodefault_2024_08_21 |
OpenAI.FileSearchRankingOptions
Options de classement pour la recherche de fichiers. S’il n’est pas spécifié, l’outil de recherche de fichiers utilise le auto ranker et une score_threshold de 0.
Pour plus d’informations, consultez la documentation de l’outil de recherche de fichiers .
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| ranker | OpenAI.FileSearchRanker | Outil de classement à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, le classificateur auto sera utilisé. |
Non | |
| seuil de score | nombre | Seuil de score pour la recherche de fichiers. Toutes les valeurs doivent être un nombre à virgule flottante compris entre 0 et 1. Contraintes : min : 0, max : 1 |
Oui |
OpenAI.FileSearchTool
Outil qui recherche le contenu pertinent à partir de fichiers chargés.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| filters | OpenAI.Filters ou null | Non | ||
| nombre_maximal_de_résultats | entier | Le nombre maximal de résultats à renvoyer. Ce nombre doit être compris entre 1 et 50 inclus. | Non | |
| options_de_classement | OpenAI.RankingOptions | Non | ||
| └hybrid_search | OpenAI.HybridSearchOptions | Des pondérations qui contrôlent comment la fusion de rang réciproque équilibre les correspondances d’embedding sémantique versus les correspondances de mots-clés clairsemées lorsque la recherche hybride est activée. | Non | |
| └─ classificateur | OpenAI.RankerVersionType | Outil de classement à utiliser pour la recherche de fichiers. | Non | |
| └score_threshold | nombre | Seuil de score pour la recherche de fichiers, nombre compris entre 0 et 1. Les nombres plus proches de 1 tenteront de retourner uniquement les résultats les plus pertinents, mais peuvent retourner moins de résultats. | Non | |
| type | enum | Type de l’outil de recherche de fichiers. A toujours la valeur file_search.Valeurs possibles : file_search |
Oui | |
| vector_store_ids | tableau de chaînes | ID des magasins vectoriels à rechercher. | Oui |
OpenAI.FileSearchToolCallResults
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes ou null | Non | ||
| identifiant_de_fichier | ficelle | Non | ||
| filename | ficelle | Non | ||
| score | nombre | Non | ||
| texte | ficelle | Non |
OpenAI.Filters
Type : OpenAI.ComparisonFilter ou OpenAI.CompoundFilter
OpenAI.FineTuneDPOHyperparameters
Hyperparamètres utilisés pour le travail d’ajustement du DPD.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| taille de lot | chaîne ou entier | Nombre d’exemples dans chaque lot. Une taille de lot plus grande signifie que les paramètres de modèle sont mis à jour moins souvent, mais avec une variance plus faible. | Non | |
| bêta | chaîne ou nombre | Valeur bêta de la méthode DPO. Une valeur bêta plus élevée augmente le poids de la pénalité entre la stratégie et le modèle de référence. | Non | |
| multiplicateur de taux d'apprentissage | chaîne ou nombre | Facteur de mise à l’échelle pour le taux d’apprentissage. Un taux d’apprentissage plus faible peut être utile pour éviter un surajustement. | Non | |
| nombre_d'époques | chaîne ou entier | Nombre d'époques pendant lequel effectuer la formation du modèle. Une époque fait référence à un cycle complet dans le jeu de données de formation. | Non |
OpenAI.FineTuneDPOMethod
Configuration de la méthode d’ajustement du DPD.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| hyperparameters | OpenAI.FineTuneDPOHyperparameters | Hyperparamètres utilisés pour le travail d’ajustement du DPD. | Non |
OpenAI.FineTuneMethod
Méthode utilisée pour l’ajustement.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| dpd | OpenAI.FineTuneDPOMethod | Configuration de la méthode d’ajustement du DPD. | Non | |
| renforcement | AzureFineTuneReinforcementMethod | Non | ||
| Supervisé | OpenAI.FineTuneSupervisedMethod | Configuration de la méthode d’ajustement supervisé. | Non | |
| type | enum | Type de méthode. Soit supervised, dpo ou reinforcement.Valeurs possibles : supervised, , dporeinforcement |
Oui |
OpenAI.FineTuneReinforcementHyperparameters
Les hyperparamètres utilisés pour le travail d’ajustement du renforcement.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| taille de lot | chaîne ou entier | Nombre d’exemples dans chaque lot. Une taille de lot plus grande signifie que les paramètres de modèle sont mis à jour moins souvent, mais avec une variance plus faible. | Non | |
| compute_multiplier | chaîne ou nombre | Multiplicateur sur la quantité de calcul utilisée pour explorer l’espace de recherche pendant l’entraînement. | Non | |
| eval_interval | chaîne ou entier | Nombre d’étapes d’entraînement entre les mesures d’évaluation. | Non | |
| eval_samples | chaîne ou entier | Nombre d’échantillons d’évaluation à générer par étape d’apprentissage. | Non | |
| multiplicateur de taux d'apprentissage | chaîne ou nombre | Facteur de mise à l’échelle pour le taux d’apprentissage. Un taux d’apprentissage plus faible peut être utile pour éviter un surajustement. | Non | |
| nombre_d'époques | chaîne ou entier | Nombre d'époques pendant lequel effectuer la formation du modèle. Une époque fait référence à un cycle complet dans le jeu de données de formation. | Non | |
| effort de raisonnement | enum | Niveau d’effort de raisonnement. Valeurs possibles : default, , lowmedium,high |
Non |
OpenAI.FineTuneSupervisedHyperparameters
Hyperparamètres utilisés pour le travail d’ajustement.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| taille de lot | chaîne ou entier | Nombre d’exemples dans chaque lot. Une taille de lot plus grande signifie que les paramètres de modèle sont mis à jour moins souvent, mais avec une variance plus faible. | Non | |
| multiplicateur de taux d'apprentissage | chaîne ou nombre | Facteur de mise à l’échelle pour le taux d’apprentissage. Un taux d’apprentissage plus faible peut être utile pour éviter un surajustement. | Non | |
| nombre_d'époques | chaîne ou entier | Nombre d'époques pendant lequel effectuer la formation du modèle. Une époque fait référence à un cycle complet dans le jeu de données de formation. | Non |
OpenAI.FineTuneSupervisedMethod
Configuration de la méthode d’ajustement supervisé.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| hyperparameters | OpenAI.FineTuneSupervisedHyperparameters | Hyperparamètres utilisés pour le travail d’ajustement. | Non |
OpenAI.FineTuningCheckpointPermission
L’objet checkpoint.permission représente une autorisation pour un point de contrôle de modèle affiné.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| date_de_création | entier | Horodatage Unix (en secondes) pour lequel l’autorisation a été créée. | Oui | |
| id | ficelle | Identificateur d’autorisation, qui peut être référencé dans les points de terminaison d’API. | Oui | |
| objet | enum | Type d’objet, qui est toujours « checkpoint.permission ». Valeurs possibles : checkpoint.permission |
Oui | |
| project_id | ficelle | Identificateur de projet pour lequel l’autorisation est autorisée. | Oui |
OpenAI.FineTuningIntegration
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Type de l’intégration activée pour le travail d’ajustement Valeurs possibles : wandb |
Oui | |
| wandb | OpenAI.FineTuningIntegrationWandb | Oui | ||
| Entité └─ | chaîne ou nulle | Non | ||
| └─ Nom | chaîne ou nulle | Non | ||
| └─ Projet | ficelle | Oui | ||
| Balises └> | tableau de chaînes | Non |
OpenAI.FineTuningIntegrationWandb
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Entité | chaîne ou nulle | Non | ||
| nom | chaîne ou nulle | Non | ||
| project | ficelle | Oui | ||
| tags | tableau de chaînes | Non |
OpenAI.FineTuningJob
L’objet fine_tuning.job représente un travail d’ajustement qui a été créé via l’API.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| date_de_création | entier | Horodatage Unix (en secondes) pour lequel le travail de réglage a été créé. | Oui | |
| erreur | OpenAI.FineTuningJobError ou null | Oui | ||
| fin estimée | chaîne ou nulle | Non | ||
| fine_tuned_model | chaîne ou nulle | Oui | ||
| finished_at | chaîne ou nulle | Oui | ||
| hyperparameters | OpenAI.FineTuningJobHyperparameters | Oui | ||
| └ taille_du_lot | chaîne ou entier ou null | Non | auto | |
| ─ learning_rate_multiplier | chaîne ou nombre | Non | ||
| └n_epochs | chaîne ou entier | Non | auto | |
| id | ficelle | Identificateur d’objet, qui peut être référencé dans les points de terminaison d’API. | Oui | |
| Intégrations | tableau d’OpenAI.FineTuningIntegration ou null | Non | ||
| metadata | OpenAI.Metadata ou null | Non | ||
| method | OpenAI.FineTuneMethod | Méthode utilisée pour l’ajustement. | Non | |
| modèle | ficelle | Modèle de base en cours d’optimisation. | Oui | |
| objet | enum | Type d’objet, qui est toujours « fine_tuning.job ». Valeurs possibles : fine_tuning.job |
Oui | |
| organization_id | ficelle | Organisation propriétaire du travail d’optimisation. | Oui | |
| fichiers_résultat | tableau de chaînes | ID du ou des fichiers de résultats compilés pour le travail d’ajustement. Vous pouvez récupérer les résultats avec l’API Files. | Oui | |
| seed | entier | La valeur initiale utilisée pour la tâche d’ajustement. | Oui | |
| status | enum | État actuel du travail d’ajustement, qui peut être validating_files, queued, running, succeeded, failed ou cancelled.Valeurs possibles : validating_files, , queuedrunning, succeeded, failedcancelled |
Oui | |
| trained_tokens | entier ou null | Oui | ||
| fichier d'entraînement | ficelle | ID de fichier utilisé pour la formation. Vous pouvez récupérer les données d’apprentissage avec l’API Files. | Oui | |
| fichier_de_validation | chaîne ou nulle | Oui |
OpenAI.FineTuningJobCheckpoint
L’objet fine_tuning.job.checkpoint représente un point de contrôle de modèle pour un travail d’ajustement prêt à être utilisé.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| date_de_création | entier | Un horodatage Unix (en secondes) du moment auquel le point de contrôle a été créé. | Oui | |
| fine_tuned_model_checkpoint | ficelle | L nom du modèle de point de contrôle ajusté qui a été créé. | Oui | |
| fine_tuning_job_id | ficelle | Nom du travail de réglage précis à partir duquel ce point de contrôle a été créé. | Oui | |
| id | ficelle | Identificateur de point de contrôle, qui peut être référencé dans les points de terminaison d’API. | Oui | |
| metrics | OpenAI.FineTuningJobCheckpointMetrics | Oui | ||
| └full_valid_loss | nombre | Non | ||
| └Précision_moyenne_du_token_valide_complet | nombre | Non | ||
| └─ Étape | nombre | Non | ||
| └─ perte_d'entraînement | nombre | Non | ||
| └─ précision_moyenne_des_tokens_entraînement | nombre | Non | ||
| └valid_loss | nombre | Non | ||
| Précision_moyenne_valide_par_jeton | nombre | Non | ||
| objet | enum | Type d’objet, qui est toujours « fine_tuning.job.checkpoint ». Valeurs possibles : fine_tuning.job.checkpoint |
Oui | |
| numéro_étape | entier | Le numéro d’étape auquel le point de contrôle a été créé. | Oui |
OpenAI.FineTuningJobCheckpointMetrics
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| full_valid_loss | nombre | Non | ||
| full_valid_mean_token_accuracy | nombre | Non | ||
| étape | nombre | Non | ||
| train_loss | nombre | Non | ||
| train_mean_token_accuracy | nombre | Non | ||
| valid_loss | nombre | Non | ||
| valid_mean_token_accuracy | nombre | Non |
OpenAI.FineTuningJobError
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code | ficelle | Oui | ||
| message | ficelle | Oui | ||
| param | chaîne ou nulle | Oui |
OpenAI.FineTuningJobEvent
Objet d’événement de travail d’ajustement
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| date_de_création | entier | Horodatage Unix (en secondes) pour lequel le travail de réglage a été créé. | Oui | |
| données | OpenAI.FineTuningJobEventData | Non | ||
| id | ficelle | Identificateur d’objet. | Oui | |
| niveau | enum | Niveau de journal de l’événement. Valeurs possibles : info, , warnerror |
Oui | |
| message | ficelle | Message de l’événement. | Oui | |
| objet | enum | Type d’objet, qui est toujours « fine_tuning.job.event ». Valeurs possibles : fine_tuning.job.event |
Oui | |
| type | enum | le type d’événement ; Valeurs possibles : message, metrics |
Non |
OpenAI.FineTuningJobEventData
Type : objet
OpenAI.FineTuningJobHyperparameters
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| taille de lot | chaîne ou entier ou null | Non | ||
| multiplicateur de taux d'apprentissage | chaîne ou nombre | Non | ||
| nombre_d'époques | chaîne ou entier | Non |
OpenAI.FunctionAndCustomToolCallOutput
Discriminateur pour OpenAI.FunctionAndCustomToolCallOutput
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
input_text |
OpenAI.FunctionAndCustomToolCallOutputInputTextContent |
input_image |
OpenAI.FunctionAndCustomToolCallOutputInputImageContent |
input_file |
OpenAI.FunctionAndCustomToolCallOutputInputFileContent |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.FunctionAndCustomToolCallOutputType | Oui |
OpenAI.FunctionAndCustomToolCallOutputInputFileContent
Entrée de fichier dans le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| file_data | ficelle | Contenu du fichier à envoyer au modèle. | Non | |
| identifiant_de_fichier | chaîne ou nulle | Non | ||
| file_url | ficelle | L’URL du fichier à envoyer au modèle. | Non | |
| filename | ficelle | Nom du fichier à envoyer au modèle. | Non | |
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_file.Valeurs possibles : input_file |
Oui |
OpenAI.FunctionAndCustomToolCallOutputInputImageContent
Entrée d’image dans le modèle. Apprenez à propos des entrées <>image c0.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| detail | OpenAI.ImageDetail | Oui | ||
| identifiant_de_fichier | chaîne ou nulle | Non | ||
| image_url | chaîne ou nulle | Non | ||
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_image.Valeurs possibles : input_image |
Oui |
OpenAI.FunctionAndCustomToolCallOutputInputTextContent
Entrée de texte dans le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Entrée de texte dans le modèle. | Oui | |
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_text.Valeurs possibles : input_text |
Oui |
OpenAI.FunctionAndCustomToolCallOutputType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | input_textinput_imageinput_file |
OpenAI.FunctionObject
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| descriptif | ficelle | Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | Non | |
| nom | ficelle | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | Oui | |
| paramètres | OpenAI.FunctionParameters | Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Voir le guide pour des exemples, et la référence JSON Schema pour la documentation sur le format. L’omission de parameters définit une fonction avec une liste de paramètres vide. |
Non | |
| strict | booléen ou null | Non |
OpenAI.FunctionParameters
Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Voir le guide pour des exemples, et la référence JSON Schema pour la documentation sur le format.
L’omission de parameters définit une fonction avec une liste de paramètres vide.
Type : objet
OpenAI.FunctionShellAction
Exécutez une commande shell.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| commands | tableau de chaînes | Oui | ||
| max_output_length | entier ou null | Oui | ||
| timeout (délai en ms) | entier ou null | Oui |
OpenAI.FunctionShellCallOutputContent
Contenu d’une sortie d’appel d’outil shell qui a été émise.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| created_by | ficelle | Identificateur de l’acteur qui a créé l’élément. | Non | |
| résultat | OpenAI.FunctionShellCallOutputOutcome | Représente un résultat de sortie (avec un code de sortie) ou un résultat de délai d’expiration pour un bloc de sortie d’appel d’interpréteur de commandes. | Oui | |
| └─ Type | OpenAI.FunctionShellCallOutputOutcomeType | Oui | ||
| Stderr | ficelle | Sortie d’erreur standard capturée. | Oui | |
| stdout | ficelle | Sortie standard capturée. | Oui |
OpenAI.FunctionShellCallOutputExitOutcome
Indique que les commandes shell se sont terminées et ont renvoyé un code de sortie.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| exit_code | entier | Quittez le code du processus d’interpréteur de commandes. | Oui | |
| type | enum | Le type de résultat. A toujours la valeur exit.Valeurs possibles : exit |
Oui |
OpenAI.FunctionShellCallOutputOutcome
Représente un résultat de sortie (avec un code de sortie) ou un résultat de délai d’expiration pour un bloc de sortie d’appel d’interpréteur de commandes.
Discriminateur pour OpenAI.FunctionShellCallOutputOutcome
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
timeout |
OpenAI.FunctionShellCallOutputTimeoutOutcome |
exit |
OpenAI.FunctionShellCallOutputExitOutcome |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.FunctionShellCallOutputOutcomeType | Oui |
OpenAI.FunctionShellCallOutputOutcomeType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | timeoutexit |
OpenAI.FunctionShellCallOutputTimeoutOutcome
Indique que l’appel shell a dépassé sa limite de temps configurée.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Le type de résultat. A toujours la valeur timeout.Valeurs possibles : timeout |
Oui |
OpenAI.FunctionShellToolParam
Un outil qui permet au modèle d’exécuter des commandes shell.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Le type d’outil coquille. A toujours la valeur shell.Valeurs possibles : shell |
Oui |
OpenAI.FunctionTool
Définit une fonction dans votre propre code que le modèle peut choisir d’appeler.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| descriptif | chaîne ou nulle | Non | ||
| nom | ficelle | Nom de la fonction à appeler. | Oui | |
| paramètres | objet ou null | Oui | ||
| strict | booléen ou null | Oui | ||
| type | enum | Type de l’outil de fonction. A toujours la valeur function.Valeurs possibles : function |
Oui |
OpenAI.GraderMulti
Un objet MultiGrader combine la sortie de plusieurs outils de notation pour produire un score unique.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| calculate_output | ficelle | Formule permettant de calculer la sortie en fonction des résultats de l’outil de notation. | Oui | |
| outils de notation | OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderScoreModel ou GraderEndpoint | Oui | ||
| nom | ficelle | Nom du correcteur. | Oui | |
| type | enum | Le type d’objet, qui est toujours multi.Valeurs possibles : multi |
Oui |
OpenAI.GraderPython
Objet PythonGrader qui exécute un script Python sur l’entrée.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| image_tag | ficelle | Balise d’image à utiliser pour le script Python. | Non | |
| nom | ficelle | Nom du correcteur. | Oui | |
| source | ficelle | Code source du script Python. | Oui | |
| type | enum | Le type d’objet, qui est toujours python.Valeurs possibles : python |
Oui |
OpenAI.GraderScoreModel
Objet ScoreModelGrader qui utilise un modèle pour affecter un score à l’entrée.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| entrée | tableau d’OpenAI.EvalItem | Les messages d’entrée évalués par le classateur. Prend en charge le texte, le texte de sortie, l’image d’entrée et les blocs de contenu audio d’entrée, et peut inclure des chaînes de modèle. | Oui | |
| modèle | ficelle | Modèle à utiliser pour l’évaluation. | Oui | |
| nom | ficelle | Nom du correcteur. | Oui | |
| range | tableau de nombres | Échelle du score. La valeur par défaut est [0, 1]. |
Non | |
| paramètres d'échantillonnage | OpenAI.EvalGraderScoreModelSamplingParams | Non | ||
| └max_completions_tokens | entier ou null | Non | ||
| └effort_de_raisonnement | OpenAI.ReasoningEffort | Limite l’effort sur le raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduirel’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés le raisonnement dans une réponse. - gpt-5.1
nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max. |
Non | |
| Graine └─ | entier ou null | Non | ||
| └─ Température | nombre ou null | Non | ||
| └─ top_p | nombre ou null | Non | 1 | |
| type | enum | Le type d’objet, qui est toujours score_model.Valeurs possibles : score_model |
Oui |
OpenAI.GraderStringCheck
Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| entrée | ficelle | Le texte d’entrée. Cela peut inclure des chaînes de modèles. | Oui | |
| nom | ficelle | Nom du correcteur. | Oui | |
| opération | enum | Opération de vérification de chaîne à effectuer. Un de eq, ne, like, ou ilike.Valeurs possibles : eq, , nelike,ilike |
Oui | |
| référence | ficelle | Le texte de référence. Cela peut inclure des chaînes de modèles. | Oui | |
| type | enum | Le type d’objet, qui est toujours string_check.Valeurs possibles : string_check |
Oui |
OpenAI.GraderTextSimilarity
Objet TextSimilarityGrader qui classe le texte en fonction des métriques de similarité.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| métrique d'évaluation | enum | Métrique d’évaluation à utiliser. Un de cosine, fuzzy_match, bleu,gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5ou rouge_l.Valeurs possibles : cosine, , , fuzzy_matchbleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
Oui | |
| entrée | ficelle | Le texte en cours d'évaluation. | Oui | |
| nom | ficelle | Nom du correcteur. | Oui | |
| référence | ficelle | Le texte servant de référence pour l'évaluation. | Oui | |
| type | enum | Le type de niveleuse. Valeurs possibles : text_similarity |
Oui |
OpenAI.GrammarSyntax1
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | larkregex |
OpenAI.HybridSearchOptions
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| embedding_weight | nombre | Le poids de l’immersion dans la fusion de rang réciproque. | Oui | |
| text_weight | nombre | Le poids du texte dans la fusion de rang réciproque. | Oui |
OpenAI.ImageDetail
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | lowhighauto |
OpenAI.ImageGenTool
Un outil qui génère des images à partir des modèles d’images GPT.
Modèles valides :
gpt-image-1
gpt-image-1-mini
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| background | enum | Type d’arrière-plan pour l’image générée. Valeurs possibles : transparent,opaque, ou auto. Par défaut : auto.Valeurs possibles : transparent, , opaqueauto |
Non | |
| input_fidelity | OpenAI.InputFidelity ou null | Non | ||
| masque_d'image_d'entrée | OpenAI.ImageGenToolInputImageMask | Non | ||
| └ file_id | ficelle | Non | ||
| └ image_url | ficelle | Non | ||
| modèle | chaîne (voir les modèles valides ci-dessous) | Non | ||
| moderation | enum | Niveau de modération de l’image générée. Par défaut : auto.Valeurs possibles : auto, low |
Non | |
| compression_de_sortie | entier | Niveau de compression de l’image de sortie. Par défaut : 100. Contraintes : min : 0, max : 100 |
Non | 100 |
| format de sortie | enum | Format de sortie de l’image générée. Un des png, ou webpjpeg. Par défaut : png.Valeurs possibles : png, , webpjpeg |
Non | |
| images partielles | entier | Nombre d’images partielles à générer en mode streaming, de 0 (valeur par défaut) à 3. Contraintes : min : 0, max : 3 |
Non | |
| qualité | enum | Qualité de l’image générée. Un de low, medium, high,ou auto. Par défaut : auto.Valeurs possibles : low, , mediumhigh,auto |
Non | |
| taille | enum | Taille de l’image générée. Valeurs possibles : 1024x1024, 1024x1536,1536x1024, ou auto. Par défaut : auto.Valeurs possibles : 1024x1024, , 1024x15361536x1024,auto |
Non | |
| type | enum | Type de l’outil de génération d’images. A toujours la valeur image_generation.Valeurs possibles : image_generation |
Oui |
OpenAI.ImageGenToolInputImageMask
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiant_de_fichier | ficelle | Non | ||
| image_url | ficelle | Non |
OpenAI.IncludeEnum
Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :
-
web_search_call.action.sources: incluez les sources de l’appel de l’outil de recherche web. -
code_interpreter_call.outputs: inclut les sorties de l’exécution de code Python dans les éléments d’appel de l’outil d’interpréteur de code. -
computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur. -
file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers. -
message.input_image.image_url: incluez des URL d’image à partir du message d’entrée. -
message.output_text.logprobs: incluez des journaux d’activité avec des messages d’assistant. -
reasoning.encrypted_content: inclut une version chiffrée des jetons de raisonnement dans les sorties d’éléments de raisonnement. Cela permet d'utiliser des éléments de raisonnement dans des conversations à plusieurs tours lors de l'utilisation de l'API Réponses de manière sans état (comme lorsque le paramètrestoreest défini surfalse, ou lorsqu'une organisation est inscrite dans le programme de rétention de données zéro).
| Propriété | Valeur |
|---|---|
| Description | Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes : |
-
web_search_call.action.sources: incluez les sources de l’appel de l’outil de recherche web. -
code_interpreter_call.outputs: inclut les sorties de l’exécution de code Python dans les éléments d’appel de l’outil d’interpréteur de code. -
computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur. -
file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers. -
message.input_image.image_url: incluez des URL d’image à partir du message d’entrée. -
message.output_text.logprobs: incluez des journaux d’activité avec des messages d’assistant. -
reasoning.encrypted_content: inclut une version chiffrée des jetons de raisonnement dans les sorties d’éléments de raisonnement. Cela permet d'utiliser des éléments de raisonnement dans des conversations à plusieurs tours lors de l'utilisation de l'API Réponses de manière sans état (comme lorsque le paramètrestoreest défini surfalse, ou lorsqu'une organisation est inscrite dans le programme de rétention de données zéro). | | Type | chaîne de caractères | | Valeurs |file_search_call.resultsweb_search_call.resultsweb_search_call.action.sourcesmessage.input_image.image_urlcomputer_call_output.output.image_urlcode_interpreter_call.outputsreasoning.encrypted_contentmessage.output_text.logprobs|
OpenAI.InputAudio
Entrée audio au modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| input_audio | OpenAI.InputAudioInputAudio | Oui | ||
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_audio.Valeurs possibles : input_audio |
Oui |
OpenAI.InputAudioInputAudio
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | ficelle | Oui | ||
| format | enum | Valeurs possibles : mp3, wav |
Oui |
OpenAI.InputContent
Discriminateur pour OpenAI.InputContent
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
input_text |
OpenAI.InputContentInputTextContent |
input_image |
OpenAI.InputContentInputImageContent |
input_file |
OpenAI.InputContentInputFileContent |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.InputContentType | Oui |
OpenAI.InputContentInputFileContent
Entrée de fichier dans le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| file_data | ficelle | Contenu du fichier à envoyer au modèle. | Non | |
| identifiant_de_fichier | chaîne ou nulle | Non | ||
| file_url | ficelle | L’URL du fichier à envoyer au modèle. | Non | |
| filename | ficelle | Nom du fichier à envoyer au modèle. | Non | |
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_file.Valeurs possibles : input_file |
Oui |
OpenAI.InputContentInputImageContent
Entrée d’image dans le modèle. Apprenez à propos des entrées <>image c0.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| detail | OpenAI.ImageDetail | Oui | ||
| identifiant_de_fichier | chaîne ou nulle | Non | ||
| image_url | chaîne ou nulle | Non | ||
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_image.Valeurs possibles : input_image |
Oui |
OpenAI.InputContentInputTextContent
Entrée de texte dans le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Entrée de texte dans le modèle. | Oui | |
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_text.Valeurs possibles : input_text |
Oui |
OpenAI.InputContentType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | input_textinput_imageinput_file |
OpenAI.InputFidelity
Contrôler l’effort que le modèle exercera pour correspondre au style et aux caractéristiques, en particulier les caractéristiques faciales, des images d’entrée. Ce paramètre est uniquement pris en charge pour gpt-image-1. Non pris en charge pour gpt-image-1-mini. Prend en charge high et low. La valeur par défaut est low.
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | highlow |
OpenAI.InputFileContent
Entrée de fichier dans le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| file_data | ficelle | Contenu du fichier à envoyer au modèle. | Non | |
| identifiant_de_fichier | chaîne ou nulle | Non | ||
| file_url | ficelle | L’URL du fichier à envoyer au modèle. | Non | |
| filename | ficelle | Nom du fichier à envoyer au modèle. | Non | |
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_file.Valeurs possibles : input_file |
Oui |
OpenAI.InputImageContent
Entrée d’image dans le modèle. Apprenez à propos des entrées <>image c0.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| detail | OpenAI.ImageDetail | Oui | ||
| identifiant_de_fichier | chaîne ou nulle | Non | ||
| image_url | chaîne ou nulle | Non | ||
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_image.Valeurs possibles : input_image |
Oui |
OpenAI.InputItem
Discriminateur pour OpenAI.InputItem
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
message |
OpenAI.EasyInputMessage |
item_reference |
OpenAI.ItemReferenceParam |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.InputItemType | Oui |
OpenAI.InputItemType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | messageitem_reference |
OpenAI.InputMessageContentList
Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant différents types de contenu.
Tableau de : OpenAI.InputContent
OpenAI.InputMessageResource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | OpenAI.InputMessageContentList | Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant un contenu différent types. |
Oui | |
| id | ficelle | L’ID unique de l’entrée du message. | Oui | |
| role | enum | Rôle de la saisie de message. Valeurs possibles : user, system ou developer.Valeurs possibles : user, , systemdeveloper |
Oui | |
| status | enum | État de l’élément. Un des in_progress, ou completedincomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
Non | |
| type | enum | Type de l’entrée de message. Toujours défini sur message.Valeurs possibles : message |
Oui |
OpenAI.InputParam
Entrées de texte, d’image ou de fichier dans le modèle, utilisées pour générer une réponse. Pour en savoir plus:
- Entrées et sorties texte
Image fichier c0 - État de la conversation
- Appel de fonction
Type : chaîne ou tableau d’OpenAI.InputItem
Entrées de texte, d’image ou de fichier dans le modèle, utilisées pour générer une réponse. Pour en savoir plus:
- Entrées et sorties texte
Image fichier c0 - État de la conversation
- Appel de fonction
OpenAI.InputTextContent
Entrée de texte dans le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Entrée de texte dans le modèle. | Oui | |
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_text.Valeurs possibles : input_text |
Oui |
OpenAI.ItemReferenceParam
Identificateur interne d’un élément à référencer.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| id | ficelle | ID de l’élément à référencer. | Oui | |
| type | enum | Type d’élément à référencer. A toujours la valeur item_reference.Valeurs possibles : item_reference |
Oui |
OpenAI.ItemResource
Élément de contenu utilisé pour générer une réponse.
Discriminant pour OpenAI.ItemResource
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.ItemResourceType | Oui |
OpenAI.ItemResourceApplyPatchToolCall
Appel d’outil qui applique des différences de fichier en créant, supprimant ou mettant à jour des fichiers.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| call_id | ficelle | L’ID unique de l’appel à l’outil de patch apply généré par le modèle. | Oui | |
| created_by | ficelle | ID de l’entité qui a créé cet appel d’outil. | Non | |
| id | ficelle | ID unique de l’appel de l’outil apply patch. Renseigné lorsque cet élément est retourné via l’API. | Oui | |
| opération | OpenAI.ApplyPatchFileOperation | Une des opérations create_file, delete_file ou update_file appliquées via apply_patch. | Oui | |
| └─ Type | OpenAI.ApplyPatchFileOperationType | Oui | ||
| status | OpenAI.ApplyPatchCallStatus | Oui | ||
| type | enum | Type de l’élément. A toujours la valeur apply_patch_call.Valeurs possibles : apply_patch_call |
Oui |
OpenAI.ItemResourceApplyPatchToolCallOutput
Sortie émise par un appel d’outil de correctif d’application.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| call_id | ficelle | L’ID unique de l’appel à l’outil de patch apply généré par le modèle. | Oui | |
| created_by | ficelle | ID de l’entité qui a créé cette sortie d’appel d’outil. | Non | |
| id | ficelle | ID unique de la sortie d’appel de l’outil appliquer le correctif. Renseigné lorsque cet élément est retourné via l’API. | Oui | |
| output | chaîne ou nulle | Non | ||
| status | OpenAI.ApplyPatchCallOutputStatus | Oui | ||
| type | enum | Type de l’élément. A toujours la valeur apply_patch_call_output.Valeurs possibles : apply_patch_call_output |
Oui |
OpenAI.ItemResourceCodeInterpreterToolCall
Un appel d’outil pour exécuter du code.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code | chaîne ou nulle | Oui | ||
| container_id | ficelle | ID du conteneur utilisé pour exécuter le code. | Oui | |
| id | ficelle | ID unique de l’appel de l’outil interpréteur de code. | Oui | |
| sorties | tableau d’OpenAI.CodeInterpreterOutputLogs ou OpenAI.CodeInterpreterOutputImage ou null | Oui | ||
| status | enum | Le statut de l’appel de l’outil Interpréteur de code. Les valeurs acceptables sont : in_progress, completed, incomplete, interpreting et failed.Valeurs possibles : in_progress, , completedincomplete, interpreting,failed |
Oui | |
| type | enum | Type de l’appel de l’outil interpréteur de code. A toujours la valeur code_interpreter_call.Valeurs possibles : code_interpreter_call |
Oui |
OpenAI.ItemResourceComputerToolCall
Un appel d’outil à un outil d’utilisation d’ordinateur. Voir le guide d’utilisation ordinateur pour plus d’informations.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| action | OpenAI.ComputerAction | Oui | ||
| call_id | ficelle | Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie. | Oui | |
| id | ficelle | ID unique de l’appel informatique. | Oui | |
| pending_safety_checks | tableau d’OpenAI.ComputerCallSafetyCheckParam | Les vérifications de sécurité en attente pour l'appel informatique. | Oui | |
| status | enum | État de l’élément. Un des in_progress, ou completedincomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
Oui | |
| type | enum | Type de l’appel d’ordinateur. A toujours la valeur computer_call.Valeurs possibles : computer_call |
Oui |
OpenAI.ItemResourceComputerToolCallOutputResource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| acknowledged_safety_checks | tableau d’OpenAI.ComputerCallSafetyCheckParam | Les vérifications de sécurité signalées par l’API qui ont été reconnues par le développeur |
Non | |
| call_id | ficelle | L'identifiant de l’appel de l’outil informatique qui a produit la sortie. | Oui | |
| id | ficelle | Identifiant de la sortie de l'outil informatique utilisé. | Non | |
| output | OpenAI.ComputerScreenshotImage | Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur. | Oui | |
| status | enum | État de l’entrée de message. Un des in_progress, ou completedincomplete. Rempli lorsque les éléments d’entrée sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
Non | |
| type | enum | Type de sortie de l’appel de l’outil informatique. A toujours la valeur computer_call_output.Valeurs possibles : computer_call_output |
Oui |
OpenAI.ItemResourceFileSearchToolCall
Résultats d’un appel d’outil de recherche de fichiers. Consultez le guide de recherche fichier pour plus d’informations.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| id | ficelle | ID unique de l’appel de l’outil de recherche de fichiers. | Oui | |
| queries | tableau de chaînes | Requêtes utilisées pour rechercher des fichiers. | Oui | |
| results | tableau d’OpenAI.FileSearchToolCallResults ou null | Non | ||
| status | enum | État de l'accès à l’outil de recherche de fichiers. Valeurs possibles : in_progress,searching, incomplete, ou failedValeurs possibles : in_progress, , searchingcompleted, incomplete,failed |
Oui | |
| type | enum | Type de l’appel de l’outil de recherche de fichiers. A toujours la valeur file_search_call.Valeurs possibles : file_search_call |
Oui |
OpenAI.ItemResourceFunctionShellCall
Appel d’outil qui exécute une ou plusieurs commandes shell dans un environnement managé.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| action | OpenAI.FunctionShellAction | Exécutez une commande shell. | Oui | |
| Commandes └ ; | tableau de chaînes | Oui | ||
| └max_output_length | entier ou null | Oui | ||
| └timeout_ms | entier ou null | Oui | ||
| call_id | ficelle | L’ID unique de l’appel de l’outil shell généré par le modèle. | Oui | |
| created_by | ficelle | ID de l’entité qui a créé cet appel d’outil. | Non | |
| id | ficelle | ID unique de l’appel de l’outil shell. Renseigné lorsque cet élément est retourné via l’API. | Oui | |
| status | OpenAI.LocalShellCallStatus | Oui | ||
| type | enum | Type de l’élément. A toujours la valeur shell_call.Valeurs possibles : shell_call |
Oui |
OpenAI.ItemResourceFunctionShellCallOutput
Sortie d’un appel d’outil shell émis.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| call_id | ficelle | L’ID unique de l’appel de l’outil shell généré par le modèle. | Oui | |
| created_by | ficelle | Identificateur de l’acteur qui a créé l’élément. | Non | |
| id | ficelle | ID unique de la sortie de l’appel d’interpréteur de commandes. Renseigné lorsque cet élément est retourné via l’API. | Oui | |
| max_output_length | entier ou null | Oui | ||
| output | tableau d’OpenAI.FunctionShellCallOutputContent | Tableau de contenu de sortie d’appel d’interpréteur de commandes | Oui | |
| type | enum | Type de sortie de l’appel d’interpréteur de commandes. A toujours la valeur shell_call_output.Valeurs possibles : shell_call_output |
Oui |
OpenAI.ItemResourceFunctionToolCallOutputResource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| call_id | ficelle | ID unique de l’appel de l’outil fonctionnel généré par le modèle. | Oui | |
| id | ficelle | Identifiant unique de l'appel de sortie de l'outil fonctionnel. Renseigné lorsque cet élément est renseigné est retourné via l’API. |
Non | |
| output | chaîne ou tableau d’OpenAI.FunctionAndCustomToolCallOutput | Sortie de l’appel de fonction généré par votre code. Il peut s’agir d’une chaîne ou d’une liste de contenu de sortie. |
Oui | |
| status | enum | État de l’élément. Un des in_progress, ou completedincomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
Non | |
| type | enum | Type d'appel de sortie de l'outil de fonctionnel. A toujours la valeur function_call_output.Valeurs possibles : function_call_output |
Oui |
OpenAI.ItemResourceFunctionToolCallResource
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| arguments | ficelle | Chaîne JSON des arguments à passer à la fonction. | Oui | |
| call_id | ficelle | ID unique de l’appel de l’outil fonctionnel généré par le modèle. | Oui | |
| id | ficelle | Identifiant unique de l'appel de l'outil fonctionnel. | Non | |
| nom | ficelle | Nom de la fonction à exécuter. | Oui | |
| status | enum | État de l’élément. Un des in_progress, ou completedincomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
Non | |
| type | enum | Type d'appel de l'outil fonctionnel. A toujours la valeur function_call.Valeurs possibles : function_call |
Oui |
OpenAI.ItemResourceImageGenToolCall
Demande de génération d’image effectuée par le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| id | ficelle | L’identifiant unique de l’appel de génération d’image. | Oui | |
| résultat | chaîne ou nulle | Oui | ||
| status | enum | L’état de l’appel de génération d’images. Valeurs possibles : in_progress, , completedgenerating,failed |
Oui | |
| type | enum | Le type d’appel de génération d’image. A toujours la valeur image_generation_call.Valeurs possibles : image_generation_call |
Oui |
OpenAI.ItemResourceLocalShellToolCall
Appel d’outil pour exécuter une commande sur l’interpréteur de commandes local.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| action | OpenAI.LocalShellExecAction | Exécutez une commande shell sur le serveur. | Oui | |
| call_id | ficelle | ID unique de l’appel de l’outil shell local généré par le modèle. | Oui | |
| id | ficelle | L’identifiant unique de l’appel local de shell. | Oui | |
| status | enum | L’état de l’appel local de coquillage. Valeurs possibles : in_progress, , completedincomplete |
Oui | |
| type | enum | Le type de l’appel local de la coquille. A toujours la valeur local_shell_call.Valeurs possibles : local_shell_call |
Oui |
OpenAI.ItemResourceLocalShellToolCallOutput
Sortie d’un appel d’outil shell local.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| id | ficelle | ID unique de l’appel de l’outil shell local généré par le modèle. | Oui | |
| output | ficelle | Chaîne JSON de la sortie de l’appel de l’outil shell local. | Oui | |
| status | chaîne ou nulle | Non | ||
| type | enum | Le type de sortie de l’outil local de shell. A toujours la valeur local_shell_call_output.Valeurs possibles : local_shell_call_output |
Oui |
OpenAI.ItemResourceMcpApprovalRequest
Demande d'approbation humaine pour l'invocation d'un outil.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| arguments | ficelle | Chaîne JSON d’arguments pour l’outil. | Oui | |
| id | ficelle | L’identifiant unique de la demande d’approbation. | Oui | |
| nom | ficelle | Nom de l’outil à exécuter. | Oui | |
| server_label | ficelle | Étiquette du serveur MCP effectuant la requête. | Oui | |
| type | enum | Type de l’élément. A toujours la valeur mcp_approval_request.Valeurs possibles : mcp_approval_request |
Oui |
OpenAI.ItemResourceMcpApprovalResponseResource
Une réponse à une requête d’approbation de MCP.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| approval_request_id | ficelle | L’ID de la requête d’approbation à laquelle on répond. | Oui | |
| Approuver | booléen | Indique si la demande a été approuvée. | Oui | |
| id | ficelle | ID unique de la réponse d’approbation | Oui | |
| reason | chaîne ou nulle | Non | ||
| type | enum | Type de l’élément. A toujours la valeur mcp_approval_response.Valeurs possibles : mcp_approval_response |
Oui |
OpenAI.ItemResourceMcpListTools
Liste des outils disponibles sur un serveur MCP.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| erreur | chaîne ou nulle | Non | ||
| id | ficelle | L’identifiant unique de la liste. | Oui | |
| server_label | ficelle | Étiquette du serveur MCP. | Oui | |
| outils | tableau d’OpenAI.MCPListToolsTools | Outils disponibles sur le serveur. | Oui | |
| type | enum | Type de l’élément. A toujours la valeur mcp_list_tools.Valeurs possibles : mcp_list_tools |
Oui |
OpenAI.ItemResourceMcpToolCall
Appel d’un outil sur un serveur MCP.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| approval_request_id | chaîne ou nulle | Non | ||
| arguments | ficelle | Chaîne JSON des arguments passés à l’outil. | Oui | |
| erreur | chaîne ou nulle | Non | ||
| id | ficelle | L’ID unique de l’outil appelle. | Oui | |
| nom | ficelle | Le nom de l’outil qui a été exécuté. | Oui | |
| output | chaîne ou nulle | Non | ||
| server_label | ficelle | Étiquette du serveur MCP exécutant l’outil. | Oui | |
| status | OpenAI.MCPToolCallStatus | Non | ||
| type | enum | Type de l’élément. A toujours la valeur mcp_call.Valeurs possibles : mcp_call |
Oui |
OpenAI.ItemResourceOutputMessage
Message de sortie du modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | tableau d’OpenAI.OutputMessageContent | Contenu du message de sortie. | Oui | |
| id | ficelle | ID unique du message de sortie. | Oui | |
| role | enum | Rôle du message de sortie. A toujours la valeur assistant.Valeurs possibles : assistant |
Oui | |
| status | enum | État de l’entrée de message. Un des in_progress, ou completedincomplete. Rempli lorsque les éléments d’entrée sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
Oui | |
| type | enum | Type du message de sortie. A toujours la valeur message.Valeurs possibles : output_message |
Oui |
OpenAI.ItemResourceType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | messageoutput_messagefile_search_callcomputer_callcomputer_call_outputweb_search_callfunction_callfunction_call_outputimage_generation_callcode_interpreter_calllocal_shell_calllocal_shell_call_outputshell_callshell_call_outputapply_patch_callapply_patch_call_outputmcp_list_toolsmcp_approval_requestmcp_approval_responsemcp_call |
OpenAI.ItemResourceWebSearchToolCall
Les résultats d’un appel d’un outil de recherche Web. Consultez le guide recherche web pour plus d’informations.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| action | OpenAI.WebSearchActionSearch ouOpenAI.WebSearchActionOpenPage ou OpenAI.WebSearchActionFind | Objet décrivant l’action spécifique effectuée dans cet appel de recherche Web. Comprend des détails sur la façon dont le modèle a utilisé le Web (rechercher, open_page, trouver). |
Oui | |
| id | ficelle | L’identifiant unique de l’outil de recherche web appelle. | Oui | |
| status | enum | L’état de l’appel d’outil de recherche web. Valeurs possibles : in_progress, , searchingcompleted,failed |
Oui | |
| type | enum | Le type de l’outil de recherche web appelé. A toujours la valeur web_search_call.Valeurs possibles : web_search_call |
Oui |
OpenAI.KeyPressAction
Une collection de séquences de touches que le modèle souhaite effectuer.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| clés | tableau de chaînes | La combinaison de touches que le modèle demande d’être enfoncée. Il s’agit d’un tableau de chaînes, chacun représentant une clé. | Oui | |
| type | enum | Spécifie le type d’événement. Pour une action de pression de touche, cette propriété est toujours définie à keypress.Valeurs possibles : keypress |
Oui |
OpenAI.ListBatchesResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.Batch | Oui | ||
| premier_identifiant | ficelle | Non | ||
| has_more | booléen | Oui | ||
| last_id | ficelle | Non | ||
| objet | enum | Valeurs possibles : list |
Oui |
OpenAI.ListFilesResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.OpenAIFile | Oui | ||
| premier_identifiant | ficelle | Oui | ||
| has_more | booléen | Oui | ||
| last_id | ficelle | Oui | ||
| objet | ficelle | Oui |
OpenAI.ListFineTuningCheckpointPermissionResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.FineTuningCheckpointPermission | Oui | ||
| premier_identifiant | chaîne ou nulle | Non | ||
| has_more | booléen | Oui | ||
| last_id | chaîne ou nulle | Non | ||
| objet | enum | Valeurs possibles : list |
Oui |
OpenAI.ListFineTuningJobCheckpointsResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.FineTuningJobCheckpoint | Oui | ||
| premier_identifiant | chaîne ou nulle | Non | ||
| has_more | booléen | Oui | ||
| last_id | chaîne ou nulle | Non | ||
| objet | enum | Valeurs possibles : list |
Oui |
OpenAI.ListFineTuningJobEventsResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.FineTuningJobEvent | Oui | ||
| has_more | booléen | Oui | ||
| objet | enum | Valeurs possibles : list |
Oui |
OpenAI.ListMessagesResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.MessageObject | Oui | ||
| premier_identifiant | ficelle | Oui | ||
| has_more | booléen | Oui | ||
| last_id | ficelle | Oui | ||
| objet | ficelle | Oui |
OpenAI.ListModelsResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.Model | Oui | ||
| objet | enum | Valeurs possibles : list |
Oui |
OpenAI.ListPaginatedFineTuningJobsResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.FineTuningJob | Oui | ||
| has_more | booléen | Oui | ||
| objet | enum | Valeurs possibles : list |
Oui |
OpenAI.ListRunStepsResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.RunStepObject | Oui | ||
| premier_identifiant | ficelle | Oui | ||
| has_more | booléen | Oui | ||
| last_id | ficelle | Oui | ||
| objet | ficelle | Oui |
OpenAI.ListRunsResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.RunObject | Oui | ||
| premier_identifiant | ficelle | Oui | ||
| has_more | booléen | Oui | ||
| last_id | ficelle | Oui | ||
| objet | ficelle | Oui |
OpenAI.ListVectorStoreFilesResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.VectorStoreFileObject | Oui | ||
| premier_identifiant | ficelle | Oui | ||
| has_more | booléen | Oui | ||
| last_id | ficelle | Oui | ||
| objet | ficelle | Oui |
OpenAI.ListVectorStoresResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.VectorStoreObject | Oui | ||
| premier_identifiant | ficelle | Oui | ||
| has_more | booléen | Oui | ||
| last_id | ficelle | Oui | ||
| objet | ficelle | Oui |
OpenAI.LocalShellCallStatus
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | in_progresscompletedincomplete |
OpenAI.LocalShellExecAction
Exécutez une commande shell sur le serveur.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| commande | tableau de chaînes | La commande à exécuter. | Oui | |
| env | objet | Variables d’environnement à définir pour la commande. | Oui | |
| timeout (délai en ms) | entier ou null | Non | ||
| type | enum | Type de l’action de l’interpréteur de commandes local. A toujours la valeur exec.Valeurs possibles : exec |
Oui | |
| utilisateur | chaîne ou nulle | Non | ||
| working_directory | chaîne ou nulle | Non |
OpenAI.LocalShellToolParam
Outil qui permet au modèle d’exécuter des commandes shell dans un environnement local.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Type de l’outil shell local. A toujours la valeur local_shell.Valeurs possibles : local_shell |
Oui |
OpenAI.LogProb
Probabilité du journal d’un jeton.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| octets | tableau d’entiers | Oui | ||
| logprob | nombre | Oui | ||
| token | ficelle | Oui | ||
| top_logprobs | tableau d’OpenAI.TopLogProb | Oui |
OpenAI.MCPListToolsTool
Outil disponible sur un serveur MCP.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| annotations | OpenAI.MCPListToolsToolAnnotations ou null | Non | ||
| descriptif | chaîne ou nulle | Non | ||
| input_schema | OpenAI.MCPListToolsToolInputSchema | Oui | ||
| nom | ficelle | Nom de l’outil. | Oui |
OpenAI.MCPListToolsToolAnnotations
Type : objet
OpenAI.MCPListToolsToolInputSchema
Type : objet
OpenAI.MCPTool
Donnez au modèle l’accès à des outils supplémentaires via des serveurs MCP (Remote Model Context Protocol). En savoir plus sur MCP.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| outils_autorisés | tableau de chaînes ou OpenAI.MCPToolFilter ou null | Non | ||
| autorisation | ficelle | Un jeton d’access OAuth pouvant être utilisé avec un serveur MCP distant, soit avec une URL de serveur MCP personnalisée ou un connecteur de service. Votre application. doit gérer le flux d’autorisation OAuth et fournir le jeton ici. |
Non | |
| connector_id | enum | Identifiant pour les connecteurs de service, comme ceux disponibles dans ChatGPT. Oneofserver_url ou connector_id doit être fourni. En savoir plus sur le serviceconnecteurs ici. Les valeurs actuellement prises en charge connector_id sont :-Dropbox: connector_dropbox-Gmail: connector_gmail- Calendrier Google : connector_googlecalendar- Google Drive : connector_googledrive- Microsoft Teams : connector_microsoftteams- Calendrier Outlook : connector_outlookcalendar- E-mail Outlook : connector_outlookemail-Sharepoint: connector_sharepointValeurs possibles : connector_dropbox, , connector_gmail, connector_googlecalendarconnector_googledriveconnector_microsoftteamsconnector_outlookcalendar, , connector_outlookemailconnector_sharepoint |
Non | |
| headers | objet ou null | Non | ||
| require_approval | OpenAI.MCPToolRequireApproval ou chaîne ou null | Non | ||
| server_description | ficelle | Description optionnelle du serveur MCP, utilisée pour fournir plus de contexte. | Non | |
| server_label | ficelle | Étiquette de ce serveur MCP, utilisée pour l’identifier dans les appels d’outils. | Oui | |
| URL du serveur | ficelle | URL du serveur MCP. L’une ou l’autre server_urlconnector_id doit êtreFourni. |
Non | |
| type | enum | Type de l’outil MCP. A toujours la valeur mcp.Valeurs possibles : mcp |
Oui |
OpenAI.MCPToolCallStatus
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | in_progresscompletedincompletecallingfailed |
OpenAI.MCPToolFilter
Un objet filtre pour spécifier quels outils sont autorisés.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| read_only | booléen | Indique si un outil modifie les données ou s’il est en lecture seule. Si un Le serveur MCP est annoté avec readOnlyHint,il correspond à ce filtre. |
Non | |
| tool_names | tableau de chaînes | Liste des noms d’outils autorisés. | Non |
OpenAI.MCPToolRequireApproval
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| toujours | OpenAI.MCPToolFilter | Un objet filtre pour spécifier quels outils sont autorisés. | Non | |
| jamais | OpenAI.MCPToolFilter | Un objet filtre pour spécifier quels outils sont autorisés. | Non |
OpenAI.MessageContent
Discriminateur pour OpenAI.MessageContent
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
image_url |
OpenAI.MessageContentImageUrlObject |
text |
OpenAI.MessageContentTextObject |
refusal |
OpenAI.MessageContentRefusalObject |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.MessageContentType | Oui |
OpenAI.MessageContentImageFileObject
Fait référence à un fichier image dans le contenu d’un message.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| image_file | OpenAI.MessageContentImageFileObjectImageFileFile | Oui | ||
| type | enum | A toujours la valeur image_file.Valeurs possibles : image_file |
Oui |
OpenAI.MessageContentImageFileObjectImageFileFile
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| detail | enum | Valeurs possibles : auto, , lowhigh |
Non | |
| identifiant_de_fichier | ficelle | Oui |
OpenAI.MessageContentImageUrlObject
Fait référence à une URL d’image dans le contenu d’un message.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| image_url | OpenAI.MessageContentImageUrlObjectImageUrl | Oui | ||
| type | enum | Le type de la partie contenu. Valeurs possibles : image_url |
Oui |
OpenAI.MessageContentImageUrlObjectImageUrl
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| detail | enum | Valeurs possibles : auto, , lowhigh |
Non | |
| url | ficelle | Oui |
OpenAI.MessageContentRefusalObject
Contenu de refus généré par l’assistant.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| refusal | ficelle | Oui | ||
| type | enum | A toujours la valeur refusal.Valeurs possibles : refusal |
Oui |
OpenAI.MessageContentTextAnnotationsFileCitationObject
Une citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’Assistant ou au message. Généré lorsque l’Assistant utilise l’outil « file_search » pour rechercher des fichiers.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| end_index | entier | Contraintes : min : 0 | Oui | |
| file_citation | OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation | Oui | ||
| start_index | entier | Contraintes : min : 0 | Oui | |
| texte | ficelle | Le texte dans le contenu du message qui doit être remplacé. | Oui | |
| type | enum | A toujours la valeur file_citation.Valeurs possibles : file_citation |
Oui |
OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiant_de_fichier | ficelle | Oui |
OpenAI.MessageContentTextAnnotationsFilePathObject
Une URL du fichier généré lorsque l’Assistant a utilisé l’outil code_interpreter pour générer un fichier.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| end_index | entier | Contraintes : min : 0 | Oui | |
| file_path | OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath | Oui | ||
| start_index | entier | Contraintes : min : 0 | Oui | |
| texte | ficelle | Le texte dans le contenu du message qui doit être remplacé. | Oui | |
| type | enum | A toujours la valeur file_path.Valeurs possibles : file_path |
Oui |
OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiant_de_fichier | ficelle | Oui |
OpenAI.MessageContentTextObject
Le contenu texte qui fait partie d’un message.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | OpenAI.MessageContentTextObjectTextText | Oui | ||
| type | enum | A toujours la valeur text.Valeurs possibles : text |
Oui |
OpenAI.MessageContentTextObjectTextText
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| annotations | tableau d’OpenAI.TextAnnotation | Oui | ||
| valeur | ficelle | Oui |
OpenAI.MessageContentType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | image_fileimage_urltextrefusal |
OpenAI.MessageObject
Représente un message dans un thread.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| assistant_id | chaîne ou nulle | Oui | ||
| attachments | tableau d’OpenAI.MessageObjectAttachments ou null | Oui | ||
| terminé_à | chaîne ou nulle | Oui | ||
| contenu | tableau d’OpenAI.MessageContent | Contenu du message dans le tableau de texte et/ou d’images. | Oui | |
| date_de_création | entier | Horodatage Unix (en secondes) de création du message. | Oui | |
| id | ficelle | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Oui | |
| incomplete_at | chaîne ou nulle | Oui | ||
| incomplete_details | OpenAI.MessageObjectIncompleteDetails ou null | Oui | ||
| metadata | OpenAI.Metadata ou null | Oui | ||
| objet | enum | Le type d’objet, qui est toujours thread.message.Valeurs possibles : thread.message |
Oui | |
| role | enum | Entité ayant produit le message. Un de user ou assistant.Valeurs possibles : user, assistant |
Oui | |
| run_id | chaîne ou nulle | Oui | ||
| status | enum | L’état du message, qui peut être in_progress, incomplete ou completed.Valeurs possibles : in_progress, , incompletecompleted |
Oui | |
| thread_id | ficelle | ID de thread auquel ce message appartient. | Oui |
OpenAI.MessageObjectAttachments
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiant_de_fichier | ficelle | Non | ||
| outils | tableau d’OpenAI.AssistantToolsCode ou OpenAI.AssistantToolsFileSearchTypeOnly | Non |
OpenAI.MessageObjectIncompleteDetails
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| reason | enum | Valeurs possibles : content_filter, , max_tokensrun_cancelled, run_expired,run_failed |
Oui |
OpenAI.MessageRequestContentTextObject
Le contenu texte qui fait partie d’un message.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Contenu texte à envoyer au modèle | Oui | |
| type | enum | A toujours la valeur text.Valeurs possibles : text |
Oui |
OpenAI.MessageRole
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | unknownuserassistantsystemcriticdiscriminatordevelopertool |
OpenAI.MessageStatus
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | in_progresscompletedincomplete |
OpenAI.Metadata
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Type : objet
OpenAI.Model
Décrit une offre de modèle OpenAI qui peut être utilisée avec l’API.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| créé | entier | Horodatage Unix (en secondes) lors de la création du modèle. | Oui | |
| id | ficelle | Identificateur de modèle, qui peut être référencé dans les points de terminaison d’API. | Oui | |
| objet | enum | Type d’objet, qui est toujours « model ». Valeurs possibles : model |
Oui | |
| owned_by | ficelle | Organisation propriétaire du modèle. | Oui |
OpenAI.ModifyMessageRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| metadata | OpenAI.Metadata ou null | Non |
OpenAI.ModifyRunRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| metadata | OpenAI.Metadata ou null | Non |
OpenAI.ModifyThreadRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| metadata | OpenAI.Metadata ou null | Non | ||
| tool_resources | OpenAI.ModifyThreadRequestToolResources ou null | Non |
OpenAI.ModifyThreadRequestToolResources
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code_interpreter | OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter | Non | ||
| file_search | OpenAI.ModifyThreadRequestToolResourcesFileSearch | Non |
OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiants_de_fichiers | tableau de chaînes | Non |
OpenAI.ModifyThreadRequestToolResourcesFileSearch
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| vector_store_ids | tableau de chaînes | Non |
OpenAI.Move
Action de déplacement de la souris.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action de déplacer, cette propriété est toujours défini sur move.Valeurs possibles : move |
Oui | |
| x | entier | Coordonnée x vers laquelle se déplacer. | Oui | |
| y | entier | La coordonnée y vers laquelle se déplacer. | Oui |
OpenAI.NoiseReductionType
Type de réduction du bruit.
near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | near_fieldfar_field |
OpenAI.OpenAIFile
L’objet File représente un document qui a été chargé dans OpenAI.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| octets | entier | Taille du fichier, en octets. | Oui | |
| date_de_création | entier | Horodatage Unix (en secondes) pour lequel le fichier a été créé. | Oui | |
| expires_at | entier | Horodatage Unix (en secondes) pour l’expiration du fichier. | Non | |
| filename | ficelle | Le nom du fichier. | Oui | |
| id | ficelle | Identificateur du fichier, qui peut être référencé dans les points de terminaison d’API. | Oui | |
| objet | enum | Le type d’objet, qui est toujours file.Valeurs possibles : file |
Oui | |
| objectif | enum | Objectif prévu du fichier. Les valeurs prises en charge sont assistants, assistants_output, batch, batch_output, fine-tune et fine-tune-results.Valeurs possibles : assistants, assistants_output, batch, batch_output, fine-tune, fine-tune-results, evals |
Oui | |
| status | enum | Valeurs possibles : uploaded, pending, running, processed, error, deleting, deleted |
Oui | |
| détails du statut | chaîne (déconseillée) | Deprecated. Pour plus d’informations sur la raison de l’échec de la validation d’un fichier d’entraînement de réglage précis, consultez le error champ sur fine_tuning.job. |
Non |
OpenAI.OtherChunkingStrategyResponseParam
Cet élément est retourné quand la stratégie de segmentation est inconnue. Généralement, cela est dû au fait que le fichier a été indexé avant l’introduction du concept chunking_strategy dans l’API.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | A toujours la valeur other.Valeurs possibles : other |
Oui |
OpenAI.OutputContent
Discriminateur pour OpenAI.OutputContent
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
output_text |
OpenAI.OutputContentOutputTextContent |
refusal |
OpenAI.OutputContentRefusalContent |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.OutputContentType | Oui |
OpenAI.OutputContentOutputTextContent
Sortie de texte du modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| annotations | tableau d’OpenAI.Annotation | Annotations de la sortie de texte. | Oui | |
| logprobs | tableau d’OpenAI.LogProb | Non | ||
| texte | ficelle | Le texte généré par le modèle. | Oui | |
| type | enum | Type du texte de sortie. A toujours la valeur output_text.Valeurs possibles : output_text |
Oui |
OpenAI.OutputContentRefusalContent
Refus du modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| refusal | ficelle | Explication du refus du modèle. | Oui | |
| type | enum | Type de refus. A toujours la valeur refusal.Valeurs possibles : refusal |
Oui |
OpenAI.OutputContentType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | output_textrefusalreasoning_text |
OpenAI.OutputItem
Discriminateur pour OpenAI.OutputItem
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
output_message |
OpenAI.OutputItemOutputMessage |
file_search_call |
OpenAI.OutputItemFileSearchToolCall |
function_call |
OpenAI.OutputItemFunctionToolCall |
web_search_call |
OpenAI.OutputItemWebSearchToolCall |
computer_call |
OpenAI.OutputItemComputerToolCall |
reasoning |
OpenAI.OutputItemReasoningItem |
compaction |
OpenAI.OutputItemCompactionBody |
image_generation_call |
OpenAI.OutputItemImageGenToolCall |
code_interpreter_call |
OpenAI.OutputItemCodeInterpreterToolCall |
local_shell_call |
OpenAI.OutputItemLocalShellToolCall |
shell_call |
OpenAI.OutputItemFunctionShellCall |
shell_call_output |
OpenAI.OutputItemFunctionShellCallOutput |
apply_patch_call |
OpenAI.OutputItemApplyPatchToolCall |
apply_patch_call_output |
OpenAI.OutputItemApplyPatchToolCallOutput |
mcp_call |
OpenAI.OutputItemMcpToolCall |
mcp_list_tools |
OpenAI.OutputItemMcpListTools |
mcp_approval_request |
OpenAI.OutputItemMcpApprovalRequest |
custom_tool_call |
OpenAI.OutputItemCustomToolCall |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.OutputItemType | Oui |
OpenAI.OutputItemApplyPatchToolCall
Appel d’outil qui applique des différences de fichier en créant, supprimant ou mettant à jour des fichiers.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| call_id | ficelle | L’ID unique de l’appel à l’outil de patch apply généré par le modèle. | Oui | |
| created_by | ficelle | ID de l’entité qui a créé cet appel d’outil. | Non | |
| id | ficelle | ID unique de l’appel de l’outil apply patch. Renseigné lorsque cet élément est retourné via l’API. | Oui | |
| opération | OpenAI.ApplyPatchFileOperation | Une des opérations create_file, delete_file ou update_file appliquées via apply_patch. | Oui | |
| └─ Type | OpenAI.ApplyPatchFileOperationType | Oui | ||
| status | OpenAI.ApplyPatchCallStatus | Oui | ||
| type | enum | Type de l’élément. A toujours la valeur apply_patch_call.Valeurs possibles : apply_patch_call |
Oui |
OpenAI.OutputItemApplyPatchToolCallOutput
Sortie émise par un appel d’outil de correctif d’application.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| call_id | ficelle | L’ID unique de l’appel à l’outil de patch apply généré par le modèle. | Oui | |
| created_by | ficelle | ID de l’entité qui a créé cette sortie d’appel d’outil. | Non | |
| id | ficelle | ID unique de la sortie d’appel de l’outil appliquer le correctif. Renseigné lorsque cet élément est retourné via l’API. | Oui | |
| output | chaîne ou nulle | Non | ||
| status | OpenAI.ApplyPatchCallOutputStatus | Oui | ||
| type | enum | Type de l’élément. A toujours la valeur apply_patch_call_output.Valeurs possibles : apply_patch_call_output |
Oui |
OpenAI.OutputItemCodeInterpreterToolCall
Un appel d’outil pour exécuter du code.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code | chaîne ou nulle | Oui | ||
| container_id | ficelle | ID du conteneur utilisé pour exécuter le code. | Oui | |
| id | ficelle | ID unique de l’appel de l’outil interpréteur de code. | Oui | |
| sorties | tableau d’OpenAI.CodeInterpreterOutputLogs ou OpenAI.CodeInterpreterOutputImage ou null | Oui | ||
| status | enum | Le statut de l’appel de l’outil Interpréteur de code. Les valeurs acceptables sont : in_progress, completed, incomplete, interpreting et failed.Valeurs possibles : in_progress, , completedincomplete, interpreting,failed |
Oui | |
| type | enum | Type de l’appel de l’outil interpréteur de code. A toujours la valeur code_interpreter_call.Valeurs possibles : code_interpreter_call |
Oui |
OpenAI.OutputItemCompactionBody
Un élément de compactage généré par l’APIv1/responses/compact.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| created_by | ficelle | Identificateur de l’acteur qui a créé l’élément. | Non | |
| encrypted_content | ficelle | Contenu chiffré généré par compactage. | Oui | |
| id | ficelle | L’identifiant unique de l’élément de compactage. | Oui | |
| type | enum | Type de l’élément. A toujours la valeur compaction.Valeurs possibles : compaction |
Oui |
OpenAI.OutputItemComputerToolCall
Un appel d’outil à un outil d’utilisation d’ordinateur. Voir le guide d’utilisation ordinateur pour plus d’informations.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| action | OpenAI.ComputerAction | Oui | ||
| call_id | ficelle | Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie. | Oui | |
| id | ficelle | ID unique de l’appel informatique. | Oui | |
| pending_safety_checks | tableau d’OpenAI.ComputerCallSafetyCheckParam | Les vérifications de sécurité en attente pour l'appel informatique. | Oui | |
| status | enum | État de l’élément. Un des in_progress, ou completedincomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
Oui | |
| type | enum | Type de l’appel d’ordinateur. A toujours la valeur computer_call.Valeurs possibles : computer_call |
Oui |
OpenAI.OutputItemCustomToolCall
Un appel à un outil personnalisé créé par le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| call_id | ficelle | Un identifiant utilisé pour associer cet appel d’outil personnalisé à une sortie d’appel d’outil. | Oui | |
| id | ficelle | L’ID unique de l’outil personnalisé s’appelle sur la plateforme OpenAI. | Non | |
| entrée | ficelle | L’entrée pour l’appel d’outil personnalisé généré par le modèle. | Oui | |
| nom | ficelle | Nom de l’outil personnalisé appelé. | Oui | |
| type | enum | Le type d’appel de l’outil personnalisé. A toujours la valeur custom_tool_call.Valeurs possibles : custom_tool_call |
Oui |
OpenAI.OutputItemFileSearchToolCall
Résultats d’un appel d’outil de recherche de fichiers. Consultez le guide de recherche fichier pour plus d’informations.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| id | ficelle | ID unique de l’appel de l’outil de recherche de fichiers. | Oui | |
| queries | tableau de chaînes | Requêtes utilisées pour rechercher des fichiers. | Oui | |
| results | tableau d’OpenAI.FileSearchToolCallResults ou null | Non | ||
| status | enum | État de l'accès à l’outil de recherche de fichiers. Valeurs possibles : in_progress,searching, incomplete, ou failedValeurs possibles : in_progress, , searchingcompleted, incomplete,failed |
Oui | |
| type | enum | Type de l’appel de l’outil de recherche de fichiers. A toujours la valeur file_search_call.Valeurs possibles : file_search_call |
Oui |
OpenAI.OutputItemFunctionShellCall
Appel d’outil qui exécute une ou plusieurs commandes shell dans un environnement managé.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| action | OpenAI.FunctionShellAction | Exécutez une commande shell. | Oui | |
| Commandes └ ; | tableau de chaînes | Oui | ||
| └max_output_length | entier ou null | Oui | ||
| └timeout_ms | entier ou null | Oui | ||
| call_id | ficelle | L’ID unique de l’appel de l’outil shell généré par le modèle. | Oui | |
| created_by | ficelle | ID de l’entité qui a créé cet appel d’outil. | Non | |
| id | ficelle | ID unique de l’appel de l’outil shell. Renseigné lorsque cet élément est retourné via l’API. | Oui | |
| status | OpenAI.LocalShellCallStatus | Oui | ||
| type | enum | Type de l’élément. A toujours la valeur shell_call.Valeurs possibles : shell_call |
Oui |
OpenAI.OutputItemFunctionShellCallOutput
Sortie d’un appel d’outil shell émis.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| call_id | ficelle | L’ID unique de l’appel de l’outil shell généré par le modèle. | Oui | |
| created_by | ficelle | Identificateur de l’acteur qui a créé l’élément. | Non | |
| id | ficelle | ID unique de la sortie de l’appel d’interpréteur de commandes. Renseigné lorsque cet élément est retourné via l’API. | Oui | |
| max_output_length | entier ou null | Oui | ||
| output | tableau d’OpenAI.FunctionShellCallOutputContent | Tableau de contenu de sortie d’appel d’interpréteur de commandes | Oui | |
| type | enum | Type de sortie de l’appel d’interpréteur de commandes. A toujours la valeur shell_call_output.Valeurs possibles : shell_call_output |
Oui |
OpenAI.OutputItemFunctionToolCall
Un appel d’outil pour exécuter une fonction. Pour plus d’informations, consultez le guide d’appel de fonction .
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| arguments | ficelle | Chaîne JSON des arguments à passer à la fonction. | Oui | |
| call_id | ficelle | ID unique de l’appel de l’outil fonctionnel généré par le modèle. | Oui | |
| id | ficelle | Identifiant unique de l'appel de l'outil fonctionnel. | Non | |
| nom | ficelle | Nom de la fonction à exécuter. | Oui | |
| status | enum | État de l’élément. Un des in_progress, ou completedincomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
Non | |
| type | enum | Type d'appel de l'outil fonctionnel. A toujours la valeur function_call.Valeurs possibles : function_call |
Oui |
OpenAI.OutputItemImageGenToolCall
Demande de génération d’image effectuée par le modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| id | ficelle | L’identifiant unique de l’appel de génération d’image. | Oui | |
| résultat | chaîne ou nulle | Oui | ||
| status | enum | L’état de l’appel de génération d’images. Valeurs possibles : in_progress, , completedgenerating,failed |
Oui | |
| type | enum | Le type d’appel de génération d’image. A toujours la valeur image_generation_call.Valeurs possibles : image_generation_call |
Oui |
OpenAI.OutputItemLocalShellToolCall
Appel d’outil pour exécuter une commande sur l’interpréteur de commandes local.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| action | OpenAI.LocalShellExecAction | Exécutez une commande shell sur le serveur. | Oui | |
| call_id | ficelle | ID unique de l’appel de l’outil shell local généré par le modèle. | Oui | |
| id | ficelle | L’identifiant unique de l’appel local de shell. | Oui | |
| status | enum | L’état de l’appel local de coquillage. Valeurs possibles : in_progress, , completedincomplete |
Oui | |
| type | enum | Le type de l’appel local de la coquille. A toujours la valeur local_shell_call.Valeurs possibles : local_shell_call |
Oui |
OpenAI.OutputItemMcpApprovalRequest
Demande d'approbation humaine pour l'invocation d'un outil.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| arguments | ficelle | Chaîne JSON d’arguments pour l’outil. | Oui | |
| id | ficelle | L’identifiant unique de la demande d’approbation. | Oui | |
| nom | ficelle | Nom de l’outil à exécuter. | Oui | |
| server_label | ficelle | Étiquette du serveur MCP effectuant la requête. | Oui | |
| type | enum | Type de l’élément. A toujours la valeur mcp_approval_request.Valeurs possibles : mcp_approval_request |
Oui |
OpenAI.OutputItemMcpListTools
Liste des outils disponibles sur un serveur MCP.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| erreur | chaîne ou nulle | Non | ||
| id | ficelle | L’identifiant unique de la liste. | Oui | |
| server_label | ficelle | Étiquette du serveur MCP. | Oui | |
| outils | tableau d’OpenAI.MCPListToolsTools | Outils disponibles sur le serveur. | Oui | |
| type | enum | Type de l’élément. A toujours la valeur mcp_list_tools.Valeurs possibles : mcp_list_tools |
Oui |
OpenAI.OutputItemMcpToolCall
Appel d’un outil sur un serveur MCP.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| approval_request_id | chaîne ou nulle | Non | ||
| arguments | ficelle | Chaîne JSON des arguments passés à l’outil. | Oui | |
| erreur | chaîne ou nulle | Non | ||
| id | ficelle | L’ID unique de l’outil appelle. | Oui | |
| nom | ficelle | Le nom de l’outil qui a été exécuté. | Oui | |
| output | chaîne ou nulle | Non | ||
| server_label | ficelle | Étiquette du serveur MCP exécutant l’outil. | Oui | |
| status | OpenAI.MCPToolCallStatus | Non | ||
| type | enum | Type de l’élément. A toujours la valeur mcp_call.Valeurs possibles : mcp_call |
Oui |
OpenAI.OutputItemOutputMessage
Message de sortie du modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | tableau d’OpenAI.OutputMessageContent | Contenu du message de sortie. | Oui | |
| id | ficelle | ID unique du message de sortie. | Oui | |
| role | enum | Rôle du message de sortie. A toujours la valeur assistant.Valeurs possibles : assistant |
Oui | |
| status | enum | État de l’entrée de message. Un des in_progress, ou completedincomplete. Rempli lorsque les éléments d’entrée sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
Oui | |
| type | enum | Type du message de sortie. A toujours la valeur message.Valeurs possibles : output_message |
Oui |
OpenAI.OutputItemReasoningItem
Description de la chaîne de pensée utilisée par un modèle de raisonnement lors de la génération d’une réponse. Assurez-vous d’inclure ces éléments dans votre input de l’API Réponses pour les tours suivants d’une conversation si vous gérez manuellement context.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | tableau d’OpenAI.ReasoningTextContent | Contenu texte de raisonnement. | Non | |
| encrypted_content | chaîne ou nulle | Non | ||
| id | ficelle | Identificateur unique du contenu du raisonnement. | Oui | |
| status | enum | État de l’élément. Un des in_progress, ou completedincomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
Non | |
| summary | tableau d’OpenAI.Summary | Résumé du raisonnement. | Oui | |
| type | enum | Type de l’objet. A toujours la valeur reasoning.Valeurs possibles : reasoning |
Oui |
OpenAI.OutputItemType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | output_messagefile_search_callfunction_callweb_search_callcomputer_callreasoningcompactionimage_generation_callcode_interpreter_calllocal_shell_callshell_callshell_call_outputapply_patch_callapply_patch_call_outputmcp_callmcp_list_toolsmcp_approval_requestcustom_tool_call |
OpenAI.OutputItemWebSearchToolCall
Les résultats d’un appel d’un outil de recherche Web. Consultez le guide recherche web pour plus d’informations.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| action | OpenAI.WebSearchActionSearch ouOpenAI.WebSearchActionOpenPage ou OpenAI.WebSearchActionFind | Objet décrivant l’action spécifique effectuée dans cet appel de recherche Web. Comprend des détails sur la façon dont le modèle a utilisé le Web (rechercher, open_page, trouver). |
Oui | |
| id | ficelle | L’identifiant unique de l’outil de recherche web appelle. | Oui | |
| status | enum | L’état de l’appel d’outil de recherche web. Valeurs possibles : in_progress, , searchingcompleted,failed |
Oui | |
| type | enum | Le type de l’outil de recherche web appelé. A toujours la valeur web_search_call.Valeurs possibles : web_search_call |
Oui |
OpenAI.OutputMessageContent
Discriminateur pour OpenAI.OutputMessageContent
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
output_text |
OpenAI.OutputMessageContentOutputTextContent |
refusal |
OpenAI.OutputMessageContentRefusalContent |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.OutputMessageContentType | Oui |
OpenAI.OutputMessageContentOutputTextContent
Sortie de texte du modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| annotations | tableau d’OpenAI.Annotation | Annotations de la sortie de texte. | Oui | |
| logprobs | tableau d’OpenAI.LogProb | Non | ||
| texte | ficelle | Le texte généré par le modèle. | Oui | |
| type | enum | Type du texte de sortie. A toujours la valeur output_text.Valeurs possibles : output_text |
Oui |
OpenAI.OutputMessageContentRefusalContent
Refus du modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| refusal | ficelle | Explication du refus du modèle. | Oui | |
| type | enum | Type de refus. A toujours la valeur refusal.Valeurs possibles : refusal |
Oui |
OpenAI.OutputMessageContentType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | output_textrefusal |
OpenAI.OutputTextContent
Sortie de texte du modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| annotations | tableau d’OpenAI.Annotation | Annotations de la sortie de texte. | Oui | |
| logprobs | tableau d’OpenAI.LogProb | Non | ||
| texte | ficelle | Le texte généré par le modèle. | Oui | |
| type | enum | Type du texte de sortie. A toujours la valeur output_text.Valeurs possibles : output_text |
Oui |
OpenAI.ParallelToolCalls
Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil.
Type : booléen
OpenAI.PredictionContent
Contenu de sortie prédite statique, tel que le contenu d’un fichier texte en cours de régénération.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | chaîne ou tableau d’OpenAI.ChatCompletionRequestMessageContentPartText | Le contenu qui doit être mis en correspondance lors de la génération d’une réponse de modèle. Si les jetons générés correspondent à ce contenu, la réponse entière du modèle peut être retourné beaucoup plus rapidement. |
Oui | |
| type | enum | Le type de contenu prédit que vous souhaitez fournir. Ce type est actuellement toujours content.Valeurs possibles : content |
Oui |
OpenAI.Prompt
Référence à un modèle d’invite et à ses variables. En savoir plus.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| id | ficelle | Identificateur unique du modèle d’invite à utiliser. | Oui | |
| variables | OpenAI.ResponsePromptVariables ou null | Non | ||
| version | chaîne ou nulle | Non |
OpenAI.RankerVersionType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | autodefault-2024-11-15 |
OpenAI.RankingOptions
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| hybrid_search | OpenAI.HybridSearchOptions | Non | ||
| └embedding_weight | nombre | Le poids de l’immersion dans la fusion de rang réciproque. | Oui | |
| └text_weight | nombre | Le poids du texte dans la fusion de rang réciproque. | Oui | |
| ranker | OpenAI.RankerVersionType | Non | ||
| seuil de score | nombre | Seuil de score pour la recherche de fichiers, nombre compris entre 0 et 1. Les nombres plus proches de 1 tenteront de retourner uniquement les résultats les plus pertinents, mais peuvent retourner moins de résultats. | Non |
OpenAI.RealtimeAudioFormats
Discriminateur pour OpenAI.RealtimeAudioFormats
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
audio/pcm |
OpenAI.RealtimeAudioFormatsAudioPcm |
audio/pcmu |
OpenAI.RealtimeAudioFormatsAudioPcmu |
audio/pcma |
OpenAI.RealtimeAudioFormatsAudioPcma |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.RealtimeAudioFormatsType | Oui |
OpenAI.RealtimeAudioFormatsAudioPcm
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| taux | enum | Valeurs possibles : 24000 |
Non | |
| type | enum | Valeurs possibles : audio/pcm |
Oui |
OpenAI.RealtimeAudioFormatsAudioPcma
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Valeurs possibles : audio/pcma |
Oui |
OpenAI.RealtimeAudioFormatsAudioPcmu
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Valeurs possibles : audio/pcmu |
Oui |
OpenAI.RealtimeAudioFormatsType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | audio/pcmaudio/pcmuaudio/pcma |
OpenAI.RealtimeCallCreateRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Sdp | ficelle | Offre SDP (WebRTC Session Description Protocol) générée par l’appelant. | Oui | |
| session | OpenAI.RealtimeSessionCreateRequestGA | Configuration de l’objet session en temps réel. | Non | |
| Audio └> | OpenAI.RealtimeSessionCreateRequestGAAudio | Configuration de l’audio d’entrée et de sortie. | Non | |
| Inclure └ ; | tableau de chaînes | Champs supplémentaires à inclure dans les sorties du serveur.item.input_audio_transcription.logprobs: incluez des logprobs pour la transcription audio d’entrée. |
Non | |
| └─ Instructions | ficelle | Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple« être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité. Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles lors de l’événement session.created au début de la session. |
Non | |
| └ max_output_tokens | entier (voir les modèles valides ci-dessous) | Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournir un entier compris entre 1 et 4096 à limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour unmodèle donné. La valeur par défaut est inf. |
Non | |
| └─ Modèle | ficelle | Modèle temps réel utilisé pour cette session. | Non | |
| └output_modalities | tableau de chaînes | L’ensemble de modalités avec laquelle le modèle peut répondre. Il est ["audio"]par défaut , indiquantque le modèle répond avec l’audio et une transcription. ["text"] peut être utilisé pour fairele modèle répond uniquement avec du texte. Il n’est pas possible de demander les deux text et audio en même temps. |
Non | ['audio'] |
| └─ invite | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. En savoir plus. |
Non | |
| └─ choix_outil | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceFunction ou OpenAI.ToolChoiceMCP | Comment le modèle choisit les outils. Fournir l’un des modes de chaîne ou forcer un élément spécifique outil function/MCP. |
Non | auto |
| └─ Outils | tableau d’OpenAI.RealtimeFunctionTool ou OpenAI.MCPTool | Outils disponibles pour le modèle. | Non | |
| Suivi └> | string ou OpenAI.RealtimeSessionCreateRequestGATracing ou null | « » Défini sur Null pour désactiver le suivi. Une fois le suivi est activé pour une session, la configuration ne peut pas être modifiée. auto crée une trace pour la session avec des valeurs par défaut pour lenom du flux de travail, ID de groupe et métadonnées. |
Non | auto |
| └─ troncature | OpenAI.RealtimeTruncation | Lorsque le nombre de jetons d’une conversation dépasse la limite du jeton d’entrée du modèle, la conversation est tronquée, ce qui signifie que les messages (à partir du plus ancien) ne sont pas inclus dans le contexte du modèle. Un modèle de contexte de 32 096 avec 4 096 jetons de sortie max ne peut inclure que 28 224 jetons dans le contexte avant la troncation. Les clients peuvent configurer le comportement de troncation pour tronquer avec une limite de jeton maximale inférieure, ce qui constitue un moyen efficace de contrôler l’utilisation et le coût des jetons. La troncation réduit le nombre de jetons mis en cache au prochain tour (busting the cache), car les messages sont supprimés du début du contexte. Toutefois, les clients peuvent également configurer la troncation pour conserver les messages jusqu’à une fraction de la taille de contexte maximale, ce qui réduit la nécessité de troncations futures et améliore ainsi le taux de cache. La troncation peut être désactivée entièrement, ce qui signifie que le serveur ne sera jamais tronqué, mais retournerait plutôt une erreur si la conversation dépasse la limite du jeton d’entrée du modèle. |
Non | |
| └─ Type | enum | Type de session à créer. Toujours realtime pour l’API En temps réel.Valeurs possibles : realtime |
Oui |
OpenAI.RealtimeCallReferRequest
Paramètres requis pour transférer un appel SIP vers une nouvelle destination à l’aide de l’API Temps réel.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| target_uri | ficelle | URI qui doit apparaître dans l’en-tête Refer-To SIP. Prend en charge les valeurs telles quetel:+14155550123 ou sip:agent\@example.com. |
Oui |
OpenAI.RealtimeCallRejectRequest
Paramètres utilisés pour refuser un appel SIP entrant géré par l’API En temps réel.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| status_code | entier | Code de réponse SIP à renvoyer à l’appelant.
603 Valeurs par défaut (Refuser)lorsqu’il est omis. |
Non |
OpenAI.RealtimeCreateClientSecretRequest
Créez une session et une clé secrète client pour l’API Realtime. La requête peut spécifier une configuration de session de transcription ou en temps réel. En savoir plus sur l’API Realtime.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| expire_après | OpenAI.RealtimeCreateClientSecretRequestExpiresAfter | Non | ||
| └─ Ancre | enum | Valeurs possibles : created_at |
Non | |
| └ secondes | entier | Contraintes : min : 10, max : 7200 | Non | 600 |
| session | OpenAI.RealtimeSessionCreateRequestUnion | Non | ||
| └─ Type | OpenAI.RealtimeSessionCreateRequestUnionType | Oui |
OpenAI.RealtimeCreateClientSecretRequestExpiresAfter
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| anchor | enum | Valeurs possibles : created_at |
Non | |
| secondes | entier | Contraintes : min : 10, max : 7200 | Non | 600 |
OpenAI.RealtimeCreateClientSecretResponse
Réponse de la création d’une session et d’une clé secrète client pour l’API En temps réel.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| expires_at | entier | Horodatage d’expiration pour la clé secrète client, en secondes depuis l’époque. | Oui | |
| session | OpenAI.RealtimeSessionCreateResponseUnion | Oui | ||
| └─ Type | OpenAI.RealtimeSessionCreateResponseUnionType | Oui | ||
| valeur | ficelle | Valeur de clé secrète client générée. | Oui |
OpenAI.RealtimeFunctionTool
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| descriptif | ficelle | Description de la fonction, y compris des conseils sur le moment et la façon dont pour l’appeler et des conseils sur ce qu’il faut indiquer à l’utilisateur lors de l’appel (le cas échéant). |
Non | |
| nom | ficelle | Nom de la fonction. | Non | |
| paramètres | OpenAI.RealtimeFunctionToolParameters | Non | ||
| type | enum | Type de l’outil, c’est-à-dire function.Valeurs possibles : function |
Non |
OpenAI.RealtimeFunctionToolParameters
Type : objet
OpenAI.RealtimeSessionCreateRequest
Nouvelle configuration de session en temps réel, avec une clé éphémère. La durée de vie par défaut des clés est d’une minute.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| secret du client | OpenAI.RealtimeSessionCreateRequestClientSecret | Oui | ||
| expires_at | entier | Oui | ||
| └─ valeur | ficelle | Oui | ||
| input_audio_format | ficelle | Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw. |
Non | |
| input_audio_transcription | OpenAI.RealtimeSessionCreateRequestInputAudioTranscription | Non | ||
| └─ Modèle | ficelle | Non | ||
| instructions | ficelle | Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple« être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité. Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles lors de l’événement session.created au début de la session. |
Non | |
| max_response_output_tokens | entier (voir les modèles valides ci-dessous) | Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournir un entier compris entre 1 et 4096 à limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour unmodèle donné. La valeur par défaut est inf. |
Non | |
| modalités | tableau de chaînes | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez cette valeur sur ["text"]. |
Non | ['text', 'audio'] |
| output_audio_format | ficelle | Format de l’audio de sortie. Les options sont pcm16, g711_ulaw ou g711_alaw. |
Non | |
| prompt | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. En savoir plus. |
Non | |
| speed | nombre | Vitesse de la réponse parlée du modèle. 1.0 est la vitesse par défaut. 0.25 est vitesse minimale. 1,5 est la vitesse maximale. Cette valeur ne peut être modifiée que entre les tours du modèle, et non pendant qu’une réponse est en cours. Contraintes : min : 0,25, max : 1,5 |
Non | 1 |
| température | nombre | Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. La valeur par défaut est 0,8. | Non | |
| tool_choice | ficelle | Comment le modèle choisit les outils. Les options sont auto, , nonerequiredouspécifiez une fonction. |
Non | |
| outils | array of OpenAI.RealtimeSessionCreateRequestTools | Outils (fonctions) disponibles pour le modèle. | Non | |
| tracing | chaîne ou objet | Options de configuration pour le suivi. Définissez la valeur Null pour désactiver le suivi. Une fois le suivi est activé pour une session, la configuration ne peut pas être modifiée. auto crée une trace pour la session avec des valeurs par défaut pour lenom du flux de travail, ID de groupe et métadonnées. |
Non | |
| truncation | OpenAI.RealtimeTruncation | Lorsque le nombre de jetons d’une conversation dépasse la limite du jeton d’entrée du modèle, la conversation est tronquée, ce qui signifie que les messages (à partir du plus ancien) ne sont pas inclus dans le contexte du modèle. Un modèle de contexte de 32 096 avec 4 096 jetons de sortie max ne peut inclure que 28 224 jetons dans le contexte avant la troncation. Les clients peuvent configurer le comportement de troncation pour tronquer avec une limite de jeton maximale inférieure, ce qui constitue un moyen efficace de contrôler l’utilisation et le coût des jetons. La troncation réduit le nombre de jetons mis en cache au prochain tour (busting the cache), car les messages sont supprimés du début du contexte. Toutefois, les clients peuvent également configurer la troncation pour conserver les messages jusqu’à une fraction de la taille de contexte maximale, ce qui réduit la nécessité de troncations futures et améliore ainsi le taux de cache. La troncation peut être désactivée entièrement, ce qui signifie que le serveur ne sera jamais tronqué, mais retournerait plutôt une erreur si la conversation dépasse la limite du jeton d’entrée du modèle. |
Non | |
| turn_detection | OpenAI.RealtimeSessionCreateRequestTurnDetection | Non | ||
| prefix_padding_ms | entier | Non | ||
| └durée_du_silence_ms | entier | Non | ||
| └─ seuil | nombre | Non | ||
| └─ Type | ficelle | Non | ||
| type | enum | Valeurs possibles : realtime |
Oui | |
| voice | OpenAI.VoiceIdsShared | Non |
OpenAI.RealtimeSessionCreateRequestClientSecret
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| expires_at | entier | Oui | ||
| valeur | ficelle | Oui |
OpenAI.RealtimeSessionCreateRequestGA
Configuration de l’objet session en temps réel.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| audio | OpenAI.RealtimeSessionCreateRequestGAAudio | Non | ||
| └─ Entrée | OpenAI.RealtimeSessionCreateRequestGAAudioInput | Non | ||
| └─ Sortie | OpenAI.RealtimeSessionCreateRequestGAAudioOutput | Non | ||
| inclure | tableau de chaînes | Champs supplémentaires à inclure dans les sorties du serveur.item.input_audio_transcription.logprobs: incluez des logprobs pour la transcription audio d’entrée. |
Non | |
| instructions | ficelle | Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple« être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité. Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles lors de l’événement session.created au début de la session. |
Non | |
| max_output_tokens | entier (voir les modèles valides ci-dessous) | Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournir un entier compris entre 1 et 4096 à limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour unmodèle donné. La valeur par défaut est inf. |
Non | |
| modèle | ficelle | Modèle temps réel utilisé pour cette session. | Non | |
| modalités de sortie | tableau de chaînes | L’ensemble de modalités avec laquelle le modèle peut répondre. Il est ["audio"]par défaut , indiquantque le modèle répond avec l’audio et une transcription. ["text"] peut être utilisé pour fairele modèle répond uniquement avec du texte. Il n’est pas possible de demander les deux text et audio en même temps. |
Non | ['audio'] |
| prompt | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. En savoir plus. |
Non | |
| tool_choice | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceFunction ou OpenAI.ToolChoiceMCP | Comment le modèle choisit les outils. Fournir l’un des modes de chaîne ou forcer un élément spécifique outil function/MCP. |
Non | |
| outils | tableau d’OpenAI.RealtimeFunctionTool ou OpenAI.MCPTool | Outils disponibles pour le modèle. | Non | |
| tracing | string ou OpenAI.RealtimeSessionCreateRequestGATracing ou null | « » Défini sur Null pour désactiver le suivi. Une fois le suivi est activé pour une session, la configuration ne peut pas être modifiée. auto crée une trace pour la session avec des valeurs par défaut pour lenom du flux de travail, ID de groupe et métadonnées. |
Non | |
| truncation | OpenAI.RealtimeTruncation | Lorsque le nombre de jetons d’une conversation dépasse la limite du jeton d’entrée du modèle, la conversation est tronquée, ce qui signifie que les messages (à partir du plus ancien) ne sont pas inclus dans le contexte du modèle. Un modèle de contexte de 32 096 avec 4 096 jetons de sortie max ne peut inclure que 28 224 jetons dans le contexte avant la troncation. Les clients peuvent configurer le comportement de troncation pour tronquer avec une limite de jeton maximale inférieure, ce qui constitue un moyen efficace de contrôler l’utilisation et le coût des jetons. La troncation réduit le nombre de jetons mis en cache au prochain tour (busting the cache), car les messages sont supprimés du début du contexte. Toutefois, les clients peuvent également configurer la troncation pour conserver les messages jusqu’à une fraction de la taille de contexte maximale, ce qui réduit la nécessité de troncations futures et améliore ainsi le taux de cache. La troncation peut être désactivée entièrement, ce qui signifie que le serveur ne sera jamais tronqué, mais retournerait plutôt une erreur si la conversation dépasse la limite du jeton d’entrée du modèle. |
Non | |
| type | enum | Type de session à créer. Toujours realtime pour l’API En temps réel.Valeurs possibles : realtime |
Oui |
OpenAI.RealtimeSessionCreateRequestGAAudio
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| entrée | OpenAI.RealtimeSessionCreateRequestGAAudioInput | Non | ||
| output | OpenAI.RealtimeSessionCreateRequestGAAudioOutput | Non |
OpenAI.RealtimeSessionCreateRequestGAAudioInput
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| format | OpenAI.RealtimeAudioFormats | Non | ||
| noise_reduction | OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction | Non | ||
| transcription | OpenAI.AudioTranscription | Non | ||
| turn_detection | OpenAI.RealtimeTurnDetection | Non |
OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.NoiseReductionType | Type de réduction du bruit.
near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence. |
Non |
OpenAI.RealtimeSessionCreateRequestGAAudioOutput
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| format | OpenAI.RealtimeAudioFormats | Non | ||
| speed | nombre | Contraintes : min : 0,25, max : 1,5 | Non | 1 |
| voice | OpenAI.VoiceIdsShared | Non |
OpenAI.RealtimeSessionCreateRequestGATracing
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| group_id | ficelle | Non | ||
| metadata | objet | Non | ||
| workflow_name | ficelle | Non |
OpenAI.RealtimeSessionCreateRequestInputAudioTranscription
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| modèle | ficelle | Non |
OpenAI.RealtimeSessionCreateRequestTools
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| descriptif | ficelle | Non | ||
| nom | ficelle | Non | ||
| paramètres | OpenAI.RealtimeSessionCreateRequestToolsParameters | Non | ||
| type | enum | Valeurs possibles : function |
Non |
OpenAI.RealtimeSessionCreateRequestToolsParameters
Type : objet
OpenAI.RealtimeSessionCreateRequestTurnDetection
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| prefix_padding_ms | entier | Non | ||
| silence_duration_ms | entier | Non | ||
| threshold | nombre | Non | ||
| type | ficelle | Non |
OpenAI.RealtimeSessionCreateRequestUnion
Discriminateur pour OpenAI.RealtimeSessionCreateRequestUnion
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
realtime |
OpenAI.RealtimeSessionCreateRequest |
transcription |
OpenAI.RealtimeTranscriptionSessionCreateRequest |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.RealtimeSessionCreateRequestUnionType | Oui |
OpenAI.RealtimeSessionCreateRequestUnionType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | realtimetranscription |
OpenAI.RealtimeSessionCreateResponse
Objet de configuration de session en temps réel.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| audio | OpenAI.RealtimeSessionCreateResponseAudio | Non | ||
| └─ Entrée | OpenAI.RealtimeSessionCreateResponseAudioInput | Non | ||
| └─ Sortie | OpenAI.RealtimeSessionCreateResponseAudioOutput | Non | ||
| expires_at | entier | Horodatage d’expiration pour la session, en secondes depuis l’époque. | Non | |
| id | ficelle | Identificateur unique de la session qui ressemble sess_1234567890abcdefà . |
Non | |
| inclure | tableau de chaînes | Champs supplémentaires à inclure dans les sorties du serveur. - item.input_audio_transcription.logprobs: incluez des logprobs pour la transcription audio d’entrée. |
Non | |
| instructions | ficelle | Les instructions système par défaut (c’est-à-dire le message système) ajoutées au modèle Appels. Ce champ permet au client de guider le modèle sur le modèle souhaité Réponses. Le modèle peut être indiqué sur le contenu et le format de réponse, (par exemple « être extrêmement succinct », « agir convivial », « voici des exemples de bien réponses ») et sur le comportement audio (par exemple « parler rapidement », « injecter l’émotion » dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties à suivre par le modèle, mais ils fournissent des conseils au modèle sur le modèle comportement souhaité. Notez que le serveur définit les instructions par défaut qui seront utilisées si cela le champ n’est pas défini et est visible dans l’événement à l’adresse session.createddébut de la session. |
Non | |
| max_output_tokens | entier (voir les modèles valides ci-dessous) | Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournir un entier compris entre 1 et 4096 à limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour unmodèle donné. La valeur par défaut est inf. |
Non | |
| modèle | ficelle | Modèle temps réel utilisé pour cette session. | Non | |
| objet | ficelle | Type d’objet. A toujours la valeur realtime.session. |
Non | |
| modalités de sortie | tableau de chaînes | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez cette valeur sur ["text"]. |
Non | |
| tool_choice | ficelle | Comment le modèle choisit les outils. Les options sont auto, , nonerequiredouspécifiez une fonction. |
Non | |
| outils | tableau d’OpenAI.RealtimeFunctionTool | Outils (fonctions) disponibles pour le modèle. | Non | |
| tracing | chaîne ou objet | Options de configuration pour le suivi. Définissez la valeur Null pour désactiver le suivi. Une fois le suivi est activé pour une session, la configuration ne peut pas être modifiée. auto crée une trace pour la session avec des valeurs par défaut pour lenom du flux de travail, ID de groupe et métadonnées. |
Non | |
| turn_detection | OpenAI.RealtimeSessionCreateResponseTurnDetection | Non | ||
| prefix_padding_ms | entier | Non | ||
| └durée_du_silence_ms | entier | Non | ||
| └─ seuil | nombre | Non | ||
| └─ Type | ficelle | Non | ||
| type | enum | Valeurs possibles : realtime |
Oui |
OpenAI.RealtimeSessionCreateResponseAudio
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| entrée | OpenAI.RealtimeSessionCreateResponseAudioInput | Non | ||
| output | OpenAI.RealtimeSessionCreateResponseAudioOutput | Non |
OpenAI.RealtimeSessionCreateResponseAudioInput
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| format | OpenAI.RealtimeAudioFormats | Non | ||
| noise_reduction | OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction | Non | ||
| transcription | OpenAI.AudioTranscription | Non | ||
| turn_detection | OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection | Non |
OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.NoiseReductionType | Type de réduction du bruit.
near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence. |
Non |
OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| prefix_padding_ms | entier | Non | ||
| silence_duration_ms | entier | Non | ||
| threshold | nombre | Non | ||
| type | ficelle | Non |
OpenAI.RealtimeSessionCreateResponseAudioOutput
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| format | OpenAI.RealtimeAudioFormats | Non | ||
| speed | nombre | Non | ||
| voice | OpenAI.VoiceIdsShared | Non |
OpenAI.RealtimeSessionCreateResponseTurnDetection
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| prefix_padding_ms | entier | Non | ||
| silence_duration_ms | entier | Non | ||
| threshold | nombre | Non | ||
| type | ficelle | Non |
OpenAI.RealtimeSessionCreateResponseUnion
Discriminateur pour OpenAI.RealtimeSessionCreateResponseUnion
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
realtime |
OpenAI.RealtimeSessionCreateResponse |
transcription |
OpenAI.RealtimeTranscriptionSessionCreateResponse |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.RealtimeSessionCreateResponseUnionType | Oui |
OpenAI.RealtimeSessionCreateResponseUnionType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | realtimetranscription |
OpenAI.RealtimeTranscriptionSessionCreateRequest
Configuration de l’objet de session de transcription en temps réel.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| inclure | tableau de chaînes | Ensemble d’éléments à inclure dans la transcription. Les éléments disponibles actuels sont les suivants :item.input_audio_transcription.logprobs |
Non | |
| input_audio_format | enum | Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw.Pour pcm16, l’audio d’entrée doit être 16 bits PCM à un taux d’échantillonnage de 24 kHz,un canal unique (mono) et un ordre d’octets little-endian. Valeurs possibles : pcm16, , g711_ulawg711_alaw |
Non | |
| input_audio_noise_reduction | OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction | Non | ||
| └─ Type | OpenAI.NoiseReductionType | Type de réduction du bruit.
near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence. |
Non | |
| input_audio_transcription | OpenAI.AudioTranscription | Non | ||
| └─ Langue | ficelle | La langue de l’audio d’entrée. Fourniture de la langue d’entrée dans Format ISO-639-1 (par exemple en)améliore la précision et la latence. |
Non | |
| └─ Modèle | ficelle | Modèle à utiliser pour la transcription. Les options actuelles sont whisper-1, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeet gpt-4o-transcribe-diarize. Utilisez gpt-4o-transcribe-diarize quand vous avez besoin d’une diarisation avec des étiquettes d’orateur. |
Non | |
| └─ invite | ficelle | Texte facultatif pour guider le style du modèle ou continuer un audio précédent Segment. Pour whisper-1, l’invite est une liste de mots clés.Pour gpt-4o-transcribe les modèles (à l’exclusion gpt-4o-transcribe-diarize), l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ». |
Non | |
| turn_detection | OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection | Non | ||
| prefix_padding_ms | entier | Non | ||
| └durée_du_silence_ms | entier | Non | ||
| └─ seuil | nombre | Non | ||
| └─ Type | enum | Valeurs possibles : server_vad |
Non | |
| type | enum | Valeurs possibles : transcription |
Oui |
OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.NoiseReductionType | Type de réduction du bruit.
near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence. |
Non |
OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| prefix_padding_ms | entier | Non | ||
| silence_duration_ms | entier | Non | ||
| threshold | nombre | Non | ||
| type | enum | Valeurs possibles : server_vad |
Non |
OpenAI.RealtimeTranscriptionSessionCreateResponse
Nouvelle configuration de session de transcription en temps réel. Lorsqu’une session est créée sur le serveur via l’API REST, l’objet de session contient également une clé éphémère. La durée de vie par défaut pour les clés est de 10 minutes. Cette propriété n’est pas présente lorsqu’une session est mise à jour via l’API WebSocket.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| secret du client | OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret | Oui | ||
| expires_at | entier | Oui | ||
| └─ valeur | ficelle | Oui | ||
| input_audio_format | ficelle | Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw. |
Non | |
| input_audio_transcription | OpenAI.AudioTranscription | Non | ||
| └─ Langue | ficelle | La langue de l’audio d’entrée. Fourniture de la langue d’entrée dans Format ISO-639-1 (par exemple en)améliore la précision et la latence. |
Non | |
| └─ Modèle | ficelle | Modèle à utiliser pour la transcription. Les options actuelles sont whisper-1, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeet gpt-4o-transcribe-diarize. Utilisez gpt-4o-transcribe-diarize quand vous avez besoin d’une diarisation avec des étiquettes d’orateur. |
Non | |
| └─ invite | ficelle | Texte facultatif pour guider le style du modèle ou continuer un audio précédent Segment. Pour whisper-1, l’invite est une liste de mots clés.Pour gpt-4o-transcribe les modèles (à l’exclusion gpt-4o-transcribe-diarize), l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ». |
Non | |
| modalités | tableau de chaînes | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez cette valeur sur ["text"]. |
Non | |
| turn_detection | OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection | Non | ||
| prefix_padding_ms | entier | Non | ||
| └durée_du_silence_ms | entier | Non | ||
| └─ seuil | nombre | Non | ||
| └─ Type | ficelle | Non | ||
| type | enum | Valeurs possibles : transcription |
Oui |
OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| expires_at | entier | Oui | ||
| valeur | ficelle | Oui |
OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| prefix_padding_ms | entier | Non | ||
| silence_duration_ms | entier | Non | ||
| threshold | nombre | Non | ||
| type | ficelle | Non |
OpenAI.RealtimeTruncation
Lorsque le nombre de jetons d’une conversation dépasse la limite du jeton d’entrée du modèle, la conversation est tronquée, ce qui signifie que les messages (à partir du plus ancien) ne sont pas inclus dans le contexte du modèle. Un modèle de contexte de 32 096 avec 4 096 jetons de sortie max ne peut inclure que 28 224 jetons dans le contexte avant la troncation. Les clients peuvent configurer le comportement de troncation pour tronquer avec une limite de jeton maximale inférieure, ce qui constitue un moyen efficace de contrôler l’utilisation et le coût des jetons. La troncation réduit le nombre de jetons mis en cache au prochain tour (busting the cache), car les messages sont supprimés du début du contexte. Toutefois, les clients peuvent également configurer la troncation pour conserver les messages jusqu’à une fraction de la taille de contexte maximale, ce qui réduit la nécessité de troncations futures et améliore ainsi le taux de cache. La troncation peut être désactivée entièrement, ce qui signifie que le serveur ne sera jamais tronqué, mais retournerait plutôt une erreur si la conversation dépasse la limite du jeton d’entrée du modèle.
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | autodisabled |
OpenAI.RealtimeTurnDetection
Discriminateur pour OpenAI.RealtimeTurnDetection
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.RealtimeTurnDetectionType | Oui |
OpenAI.RealtimeTurnDetectionType
Type : string
OpenAI.Reasoning
Uniquement les modèles GPT-5 et O-Series Options de configuration pour les modèles de raisonnement.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| effort | OpenAI.ReasoningEffort | Limite l’effort sur le raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. Réduirel’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés le raisonnement dans une réponse. - gpt-5.1
nonevaleur par défaut , qui n’effectue pas de raisonnement. Les valeurs de raisonnement supportées pour gpt-5.1 sont none, low, medium, et high. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1.- Tous les modèles avant gpt-5.1 l’effort medium de raisonnement par défaut, et ne prennent pas en charge none.- Le gpt-5-pro modèle prend par défaut (et prend uniquement en charge) high l’effort de raisonnement.- xhigh est pris en charge pour tous les modèles après gpt-5.1-codex-max. |
Non | |
| generate_summary | chaîne ou nulle | Non | ||
| summary | chaîne ou nulle | Non |
OpenAI.ReasoningEffort
Limite l’effort sur le raisonnement des modèles de raisonnement.
Les valeurs actuellement prises en charge sont none, minimal, low, medium, high, et xhigh. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et l’utilisation d’un nombre inférieur de jetons sur le raisonnement dans une réponse.
-
gpt-5.1par défaut ,nonequi n’exécute pas de raisonnement. Les valeurs de raisonnement supportées pourgpt-5.1sontnone,low,medium, ethigh. Les appels d’outils sont pris en charge pour toutes les valeurs de raisonnement dans gpt-5.1. - Tous les modèles précédents
gpt-5.1par défaut utilisentmediuml’effort de raisonnement, et ne supportentnonepas . - Le
gpt-5-promodèle utilise par défaut (et ne supporte que)highl’effort de raisonnement. -
xhighest supporté pour tous les modèles aprèsgpt-5.1-codex-max.
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | noneminimallowmediumhighxhigh |
OpenAI.ReasoningTextContent
Texte de raisonnement du modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Le texte de raisonnement du modèle. | Oui | |
| type | enum | Le type de texte de raisonnement. A toujours la valeur reasoning_text.Valeurs possibles : reasoning_text |
Oui |
OpenAI.RefusalContent
Refus du modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| refusal | ficelle | Explication du refus du modèle. | Oui | |
| type | enum | Type de refus. A toujours la valeur refusal.Valeurs possibles : refusal |
Oui |
OpenAI.Response
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| background | booléen ou null | Non | ||
| terminé_à | chaîne ou nulle | Non | ||
| content_filters | tableau d’AzureContentFilterForResponsesAPI | Le filtre de contenu résulte de RAI. | Oui | |
| conversation | OpenAI.ConversationReference ou null | Non | ||
| date_de_création | entier | Horodatage Unix (en secondes) de la création de cette réponse. | Oui | |
| erreur | OpenAI.ResponseError ou null | Oui | ||
| id | ficelle | Identificateur unique pour cette réponse. | Oui | |
| incomplete_details | OpenAI.ResponseIncompleteDetails ou null | Oui | ||
| instructions | chaîne ou tableau d’OpenAI.InputItem ou null | Oui | ||
| max_output_tokens | entier ou null | Non | ||
| max_tool_calls | entier ou null | Non | ||
| metadata | OpenAI.Metadata ou null | Non | ||
| modèle | ficelle | ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAIoffre un large éventail de modèles avec différentes fonctionnalités, performances caractéristiques et points de prix. Reportez-vous au guide du modèle pour parcourir et comparer les modèles disponibles. |
Non | |
| objet | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
Oui | |
| output | tableau d’OpenAI.OutputItem | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendentsur la réponse du modèle. - Plutôt que d’accéder au premier élément du tableau output et en supposant qu’il s’agit d’un assistant message avec le contenu généré pardu modèle, vous pouvez envisager d’utiliser la propriété output_text oùpris en charge dans les kits SDK. |
Oui | |
| output_text | chaîne ou nulle | Non | ||
| parallel_tool_calls | booléen | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | Oui | Vrai |
| previous_response_id | chaîne ou nulle | Non | ||
| prompt | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. En savoir plus. |
Non | |
| prompt_cache_key | ficelle | Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ.
En savoir plus. |
Non | |
| prompt_cache_retention | chaîne ou nulle | Non | ||
| reasoning | OpenAI.Reasoning ou Null | Non | ||
| safety_identifier | ficelle | Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI. Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus. |
Non | |
| status | enum | État de la génération de réponse. Valeurs possibles : completed, failed,in_progress, cancelled, queued ou incomplete.Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete |
Non | |
| température | nombre ou null | Non | ||
| texte | OpenAI.ResponseTextParam | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus: - Entrées et sorties texte - Sorties structurées |
Non | |
| tool_choice | OpenAI.ToolChoiceParam | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération une réponse. Voir le tools paramètre pour voir comment spécifier les outilsle modèle peut effectuer un appel. |
Non | |
| outils | OpenAI.ToolsArray | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.Nous prenons en charge les catégories d’outils suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent le Les capacités du modèle, comme recherche web ou outils intégrés. - Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur Outils MCP. - Appels de fonction (outils personnalisés) : fonctions définies par vous, activation du modèle pour appeler votre propre code avec des arguments fortement typés et sorties. En savoir plus sur fonction appelant. Vous pouvez également utiliser outils personnalisés pour appeler votre propre code. |
Non | |
| top_logprobs | entier ou null | Non | ||
| top_p | nombre ou null | Non | ||
| truncation | chaîne ou nulle | Non | ||
| usage | OpenAI.ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, répartition des jetons de sortie et du nombre total de jetons utilisés. |
Non | |
| utilisateur | chaîne (déconseillée) | Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.Identificateur stable pour vos utilisateurs finaux. Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus. |
Non |
OpenAI.ResponseAudioDeltaEvent
Émis lorsqu’il existe une réponse audio partielle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| delta | ficelle | Segment d’octets audio de réponse encodés en Base64. | Oui | |
| sequence_number | entier | Numéro de séquence pour ce segment de la réponse de flux. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.audio.delta.Valeurs possibles : response.audio.delta |
Oui |
OpenAI.ResponseAudioTranscriptDeltaEvent
Émis lorsqu’il existe une transcription partielle de l’audio.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| delta | ficelle | Transcription partielle de la réponse audio. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.audio.transcript.delta.Valeurs possibles : response.audio.transcript.delta |
Oui |
OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
Émis lorsqu’un extrait de code partiel est diffusé en continu par l’interpréteur de code.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| delta | ficelle | Extrait de code partiel diffusé par l’interpréteur de code. | Oui | |
| item_id | ficelle | Identificateur unique de l’élément d’appel de l’outil interpréteur de code. | Oui | |
| output_index | entier | Index de l’élément de sortie dans la réponse pour laquelle le code est en cours de diffusion en continu. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement, utilisé pour commander les événements de diffusion en continu. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.code_interpreter_call_code.delta.Valeurs possibles : response.code_interpreter_call_code.delta |
Oui |
OpenAI.ResponseCodeInterpreterCallInProgressEvent
Émis lorsqu’un appel d’interpréteur de code est en cours.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_id | ficelle | Identificateur unique de l’élément d’appel de l’outil interpréteur de code. | Oui | |
| output_index | entier | Index de l’élément de sortie dans la réponse pour laquelle l’appel de l’interpréteur de code est en cours. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement, utilisé pour commander les événements de diffusion en continu. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.code_interpreter_call.in_progress.Valeurs possibles : response.code_interpreter_call.in_progress |
Oui |
OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Émis lorsque l’interpréteur de code interprète activement l’extrait de code.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_id | ficelle | Identificateur unique de l’élément d’appel de l’outil interpréteur de code. | Oui | |
| output_index | entier | Index de l’élément de sortie dans la réponse pour laquelle l’interpréteur de code interprète le code. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement, utilisé pour commander les événements de diffusion en continu. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.code_interpreter_call.interpreting.Valeurs possibles : response.code_interpreter_call.interpreting |
Oui |
OpenAI.ResponseContentPartAddedEvent
Émis lorsqu’un nouveau composant de contenu est ajouté.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| content_index | entier | Index de la partie de contenu qui a été ajoutée. | Oui | |
| item_id | ficelle | ID de l’élément de sortie auquel la partie de contenu a été ajoutée. | Oui | |
| output_index | entier | Index de l’élément de sortie auquel la partie de contenu a été ajoutée. | Oui | |
| part | OpenAI.OutputContent | Oui | ||
| └─ Type | OpenAI.OutputContentType | Oui | ||
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.content_part.added.Valeurs possibles : response.content_part.added |
Oui |
OpenAI.ResponseCreatedEvent
Événement émis lors de la création d’une réponse.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| response | OpenAI.Response | Oui | ||
| └─ arrière-plan | booléen ou null | Non | ||
| └completed_at | chaîne ou nulle | Non | ||
| └content_filters | tableau d’AzureContentFilterForResponsesAPI | Le filtre de contenu résulte de RAI. | Oui | |
| Conversation └> | OpenAI.ConversationReference ou null | Non | ||
| └created_at | entier | Horodatage Unix (en secondes) de la création de cette réponse. | Oui | |
| Erreur └ ; | OpenAI.ResponseError ou null | Oui | ||
| └─ identifiant | ficelle | Identificateur unique pour cette réponse. | Oui | |
| └─ détails_incomplets | OpenAI.ResponseIncompleteDetails ou null | Oui | ||
| └─ Instructions | chaîne ou tableau d’OpenAI.InputItem ou null | Oui | ||
| └ max_output_tokens | entier ou null | Non | ||
| └max_tool_calls | entier ou null | Non | ||
| └─ Métadonnées | OpenAI.Metadata ou null | Non | ||
| └─ Modèle | ficelle | ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAIoffre un large éventail de modèles avec différentes fonctionnalités, performances caractéristiques et points de prix. Reportez-vous au guide du modèle pour parcourir et comparer les modèles disponibles. |
Non | |
| └─ Objet | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
Oui | |
| └─ Sortie | tableau d’OpenAI.OutputItem | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendentsur la réponse du modèle. - Plutôt que d’accéder au premier élément du tableau output et en supposant qu’il s’agit d’un assistant message avec le contenu généré pardu modèle, vous pouvez envisager d’utiliser la propriété output_text oùpris en charge dans les kits SDK. |
Oui | |
| └─output_text | chaîne ou nulle | Non | ||
| └─ appels_outils_parallèles | booléen | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | Oui | Vrai |
| └identifiant_de_réponse_précédent (`previous_response_id`) | chaîne ou nulle | Non | ||
| └─ invite | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. En savoir plus. |
Non | |
| └prompt_cache_key | ficelle | Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ.
En savoir plus. |
Non | |
| └prompt_cache_retention | chaîne ou nulle | Non | ||
| └─ Raisonnement | OpenAI.Reasoning ou Null | Non | ||
| └safety_identifier | ficelle | Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI. Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus. |
Non | |
| └─ État | enum | État de la génération de réponse. Valeurs possibles : completed, failed,in_progress, cancelled, queued ou incomplete.Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete |
Non | |
| └─ Température | nombre ou null | Non | 1 | |
| └─ texte | OpenAI.ResponseTextParam | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus: - Entrées et sorties texte - Sorties structurées |
Non | |
| └─ choix_outil | OpenAI.ToolChoiceParam | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération une réponse. Voir le tools paramètre pour voir comment spécifier les outilsle modèle peut effectuer un appel. |
Non | |
| └─ Outils | OpenAI.ToolsArray | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.Nous prenons en charge les catégories d’outils suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent le Les capacités du modèle, comme recherche web ou outils intégrés. - Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur Outils MCP. - Appels de fonction (outils personnalisés) : fonctions définies par vous, activation du modèle pour appeler votre propre code avec des arguments fortement typés et sorties. En savoir plus sur fonction appelant. Vous pouvez également utiliser outils personnalisés pour appeler votre propre code. |
Non | |
| ├ top_logprobs | entier ou null | Non | ||
| └─ top_p | nombre ou null | Non | 1 | |
| └─ troncature | chaîne ou nulle | Non | handicapé | |
| └─ utilisation | OpenAI.ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, répartition des jetons de sortie et du nombre total de jetons utilisés. |
Non | |
| └─ Utilisateur | chaîne (déconseillée) | Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.Identificateur stable pour vos utilisateurs finaux. Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus. |
Non | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.created.Valeurs possibles : response.created |
Oui |
OpenAI.ResponseCustomToolCallInputDeltaEvent
Événement représentant un delta (mise à jour partielle) à l’entrée d’un appel d’outil personnalisé.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| delta | ficelle | Données d’entrée incrémentielles (delta) pour l’appel d’outil personnalisé. | Oui | |
| item_id | ficelle | Identificateur unique de l’élément d’API associé à cet événement. | Oui | |
| output_index | entier | L’index de la sortie auquel s’applique ce delta. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | Identificateur de type d’événement. Valeurs possibles : response.custom_tool_call_input.delta |
Oui |
OpenAI.ResponseError
Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code | OpenAI.ResponseErrorCode | Code d’erreur de la réponse. | Oui | |
| message | ficelle | Une description de l’erreur à l’intention des utilisateurs. | Oui |
OpenAI.ResponseErrorCode
Code d’erreur de la réponse.
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
OpenAI.ResponseErrorEvent
Émis lorsqu’une erreur se produit.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code | chaîne ou nulle | Oui | ||
| message | ficelle | Message d’erreur. | Oui | |
| param | chaîne ou nulle | Oui | ||
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur error.Valeurs possibles : error |
Oui |
OpenAI.ResponseFailedEvent
Événement émis en cas d’échec d’une réponse.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| response | OpenAI.Response | Oui | ||
| └─ arrière-plan | booléen ou null | Non | ||
| └completed_at | chaîne ou nulle | Non | ||
| └content_filters | tableau d’AzureContentFilterForResponsesAPI | Le filtre de contenu résulte de RAI. | Oui | |
| Conversation └> | OpenAI.ConversationReference ou null | Non | ||
| └created_at | entier | Horodatage Unix (en secondes) de la création de cette réponse. | Oui | |
| Erreur └ ; | OpenAI.ResponseError ou null | Oui | ||
| └─ identifiant | ficelle | Identificateur unique pour cette réponse. | Oui | |
| └─ détails_incomplets | OpenAI.ResponseIncompleteDetails ou null | Oui | ||
| └─ Instructions | chaîne ou tableau d’OpenAI.InputItem ou null | Oui | ||
| └ max_output_tokens | entier ou null | Non | ||
| └max_tool_calls | entier ou null | Non | ||
| └─ Métadonnées | OpenAI.Metadata ou null | Non | ||
| └─ Modèle | ficelle | ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAIoffre un large éventail de modèles avec différentes fonctionnalités, performances caractéristiques et points de prix. Reportez-vous au guide du modèle pour parcourir et comparer les modèles disponibles. |
Non | |
| └─ Objet | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
Oui | |
| └─ Sortie | tableau d’OpenAI.OutputItem | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendentsur la réponse du modèle. - Plutôt que d’accéder au premier élément du tableau output et en supposant qu’il s’agit d’un assistant message avec le contenu généré pardu modèle, vous pouvez envisager d’utiliser la propriété output_text oùpris en charge dans les kits SDK. |
Oui | |
| └─output_text | chaîne ou nulle | Non | ||
| └─ appels_outils_parallèles | booléen | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | Oui | Vrai |
| └identifiant_de_réponse_précédent (`previous_response_id`) | chaîne ou nulle | Non | ||
| └─ invite | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. En savoir plus. |
Non | |
| └prompt_cache_key | ficelle | Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ.
En savoir plus. |
Non | |
| └prompt_cache_retention | chaîne ou nulle | Non | ||
| └─ Raisonnement | OpenAI.Reasoning ou Null | Non | ||
| └safety_identifier | ficelle | Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI. Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus. |
Non | |
| └─ État | enum | État de la génération de réponse. Valeurs possibles : completed, failed,in_progress, cancelled, queued ou incomplete.Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete |
Non | |
| └─ Température | nombre ou null | Non | 1 | |
| └─ texte | OpenAI.ResponseTextParam | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus: - Entrées et sorties texte - Sorties structurées |
Non | |
| └─ choix_outil | OpenAI.ToolChoiceParam | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération une réponse. Voir le tools paramètre pour voir comment spécifier les outilsle modèle peut effectuer un appel. |
Non | |
| └─ Outils | OpenAI.ToolsArray | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.Nous prenons en charge les catégories d’outils suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent le Les capacités du modèle, comme recherche web ou outils intégrés. - Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur Outils MCP. - Appels de fonction (outils personnalisés) : fonctions définies par vous, activation du modèle pour appeler votre propre code avec des arguments fortement typés et sorties. En savoir plus sur fonction appelant. Vous pouvez également utiliser outils personnalisés pour appeler votre propre code. |
Non | |
| ├ top_logprobs | entier ou null | Non | ||
| └─ top_p | nombre ou null | Non | 1 | |
| └─ troncature | chaîne ou nulle | Non | handicapé | |
| └─ utilisation | OpenAI.ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, répartition des jetons de sortie et du nombre total de jetons utilisés. |
Non | |
| └─ Utilisateur | chaîne (déconseillée) | Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.Identificateur stable pour vos utilisateurs finaux. Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus. |
Non | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.failed.Valeurs possibles : response.failed |
Oui |
OpenAI.ResponseFileSearchCallInProgressEvent
Émis lorsqu’un appel de recherche de fichiers est lancé.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_id | ficelle | ID de l’élément de sortie initié par l’appel de recherche de fichier. | Oui | |
| output_index | entier | L'index de l'élément de sortie auquel l'appel de recherche de fichier est associé. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.file_search_call.in_progress.Valeurs possibles : response.file_search_call.in_progress |
Oui |
OpenAI.ResponseFileSearchCallSearchingEvent
Émis lorsqu'une recherche de fichier est en cours.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_id | ficelle | ID de l’élément de sortie initié par l’appel de recherche de fichier. | Oui | |
| output_index | entier | Index de l’élément de sortie recherché lors de l’appel de recherche de fichier. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.file_search_call.searching.Valeurs possibles : response.file_search_call.searching |
Oui |
OpenAI.ResponseFormatJsonObject
Format de réponse d’objet JSON. Méthode plus ancienne de génération de réponses JSON.
L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. Notez que le modèle ne génère pas de JSON sans message système ou utilisateur lui demandant de le faire.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Type de format de réponse défini. A toujours la valeur json_object.Valeurs possibles : json_object |
Oui |
OpenAI.ResponseFormatJsonSchema
Format de réponse de schéma JSON. Utilisé pour générer des réponses JSON structurées. En savoir plus sur les sorties structurées.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| json_schema | OpenAI.ResponseFormatJsonSchemaJsonSchema | Oui | ||
| └─ Description | ficelle | Non | ||
| └─ Nom | ficelle | Oui | ||
| └─ Schéma | OpenAI.ResponseFormatJsonSchemaSchema | Schéma du format de réponse, décrit en tant qu’objet de schéma JSON. Découvrez comment créer des schémas JSON ici. |
Non | |
| └' strict | booléen ou null | Non | ||
| type | enum | Type de format de réponse défini. A toujours la valeur json_schema.Valeurs possibles : json_schema |
Oui |
OpenAI.ResponseFormatJsonSchemaJsonSchema
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| descriptif | ficelle | Non | ||
| nom | ficelle | Oui | ||
| schéma | OpenAI.ResponseFormatJsonSchemaSchema | Schéma du format de réponse, décrit en tant qu’objet de schéma JSON. Découvrez comment créer des schémas JSON ici. |
Non | |
| strict | booléen ou null | Non |
OpenAI.ResponseFormatJsonSchemaSchema
Schéma du format de réponse, décrit en tant qu’objet de schéma JSON. Découvrez comment créer des schémas JSON ici.
Type : objet
OpenAI.ResponseFormatText
Format de réponse par défaut. Utilisé pour générer des réponses de texte.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Type de format de réponse défini. A toujours la valeur text.Valeurs possibles : text |
Oui |
OpenAI.ResponseFunctionCallArgumentsDeltaEvent
Émis lorsqu’il existe un delta d’arguments d’appel de fonction partiel.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| delta | ficelle | Delta des arguments d’appel de fonction ajoutés. | Oui | |
| item_id | ficelle | ID de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté. | Oui | |
| output_index | entier | Index de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.function_call_arguments.delta.Valeurs possibles : response.function_call_arguments.delta |
Oui |
OpenAI.ResponseImageGenCallGeneratingEvent
Émis lorsqu’un appel d’outil de génération d’images génère activement une image (état intermédiaire).
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_id | ficelle | Identificateur unique de l’élément de génération d’image en cours de traitement. | Oui | |
| output_index | entier | L’index de l’élément de sortie dans le groupe de sortie de la réponse. | Oui | |
| sequence_number | entier | Numéro de séquence de l’élément de génération d’image en cours de traitement. | Oui | |
| type | enum | le type de l'événement ; Toujours « response.image_generation_call.generating ». Valeurs possibles : response.image_generation_call.generating |
Oui |
OpenAI.ResponseImageGenCallInProgressEvent
Émis lorsqu’un appel d’outil de génération d’images est en cours.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_id | ficelle | Identificateur unique de l’élément de génération d’image en cours de traitement. | Oui | |
| output_index | entier | L’index de l’élément de sortie dans le groupe de sortie de la réponse. | Oui | |
| sequence_number | entier | Numéro de séquence de l’élément de génération d’image en cours de traitement. | Oui | |
| type | enum | le type de l'événement ; Toujours « response.image_generation_call.in_progress ». Valeurs possibles : response.image_generation_call.in_progress |
Oui |
OpenAI.ResponseImageGenCallPartialImageEvent
Émis lorsqu’une image partielle est disponible pendant la diffusion en continu de génération d’images.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_id | ficelle | Identificateur unique de l’élément de génération d’image en cours de traitement. | Oui | |
| output_index | entier | L’index de l’élément de sortie dans le groupe de sortie de la réponse. | Oui | |
| partial_image_b64 | ficelle | Données d’image partielle encodées en base64, adaptées au rendu en tant qu’image. | Oui | |
| partial_image_index | entier | Index de base 0 pour l’image partielle (le back-end est basé sur 1, mais il s’agit de 0 pour l’utilisateur). | Oui | |
| sequence_number | entier | Numéro de séquence de l’élément de génération d’image en cours de traitement. | Oui | |
| type | enum | le type de l'événement ; Toujours « response.image_generation_call.partial_image ». Valeurs possibles : response.image_generation_call.partial_image |
Oui |
OpenAI.ResponseInProgressEvent
Émis lorsque la réponse est en cours.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| response | OpenAI.Response | Oui | ||
| └─ arrière-plan | booléen ou null | Non | ||
| └completed_at | chaîne ou nulle | Non | ||
| └content_filters | tableau d’AzureContentFilterForResponsesAPI | Le filtre de contenu résulte de RAI. | Oui | |
| Conversation └> | OpenAI.ConversationReference ou null | Non | ||
| └created_at | entier | Horodatage Unix (en secondes) de la création de cette réponse. | Oui | |
| Erreur └ ; | OpenAI.ResponseError ou null | Oui | ||
| └─ identifiant | ficelle | Identificateur unique pour cette réponse. | Oui | |
| └─ détails_incomplets | OpenAI.ResponseIncompleteDetails ou null | Oui | ||
| └─ Instructions | chaîne ou tableau d’OpenAI.InputItem ou null | Oui | ||
| └ max_output_tokens | entier ou null | Non | ||
| └max_tool_calls | entier ou null | Non | ||
| └─ Métadonnées | OpenAI.Metadata ou null | Non | ||
| └─ Modèle | ficelle | ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAIoffre un large éventail de modèles avec différentes fonctionnalités, performances caractéristiques et points de prix. Reportez-vous au guide du modèle pour parcourir et comparer les modèles disponibles. |
Non | |
| └─ Objet | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
Oui | |
| └─ Sortie | tableau d’OpenAI.OutputItem | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendentsur la réponse du modèle. - Plutôt que d’accéder au premier élément du tableau output et en supposant qu’il s’agit d’un assistant message avec le contenu généré pardu modèle, vous pouvez envisager d’utiliser la propriété output_text oùpris en charge dans les kits SDK. |
Oui | |
| └─output_text | chaîne ou nulle | Non | ||
| └─ appels_outils_parallèles | booléen | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | Oui | Vrai |
| └identifiant_de_réponse_précédent (`previous_response_id`) | chaîne ou nulle | Non | ||
| └─ invite | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. En savoir plus. |
Non | |
| └prompt_cache_key | ficelle | Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ.
En savoir plus. |
Non | |
| └prompt_cache_retention | chaîne ou nulle | Non | ||
| └─ Raisonnement | OpenAI.Reasoning ou Null | Non | ||
| └safety_identifier | ficelle | Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI. Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus. |
Non | |
| └─ État | enum | État de la génération de réponse. Valeurs possibles : completed, failed,in_progress, cancelled, queued ou incomplete.Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete |
Non | |
| └─ Température | nombre ou null | Non | 1 | |
| └─ texte | OpenAI.ResponseTextParam | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus: - Entrées et sorties texte - Sorties structurées |
Non | |
| └─ choix_outil | OpenAI.ToolChoiceParam | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération une réponse. Voir le tools paramètre pour voir comment spécifier les outilsle modèle peut effectuer un appel. |
Non | |
| └─ Outils | OpenAI.ToolsArray | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.Nous prenons en charge les catégories d’outils suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent le Les capacités du modèle, comme recherche web ou outils intégrés. - Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur Outils MCP. - Appels de fonction (outils personnalisés) : fonctions définies par vous, activation du modèle pour appeler votre propre code avec des arguments fortement typés et sorties. En savoir plus sur fonction appelant. Vous pouvez également utiliser outils personnalisés pour appeler votre propre code. |
Non | |
| ├ top_logprobs | entier ou null | Non | ||
| └─ top_p | nombre ou null | Non | 1 | |
| └─ troncature | chaîne ou nulle | Non | handicapé | |
| └─ utilisation | OpenAI.ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, répartition des jetons de sortie et du nombre total de jetons utilisés. |
Non | |
| └─ Utilisateur | chaîne (déconseillée) | Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.Identificateur stable pour vos utilisateurs finaux. Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus. |
Non | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.in_progress.Valeurs possibles : response.in_progress |
Oui |
OpenAI.ResponseIncompleteDetails
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| reason | enum | Valeurs possibles : max_output_tokens, content_filter |
Non |
OpenAI.ResponseIncompleteEvent
Événement émis lorsqu’une réponse se termine comme incomplète.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| response | OpenAI.Response | Oui | ||
| └─ arrière-plan | booléen ou null | Non | ||
| └completed_at | chaîne ou nulle | Non | ||
| └content_filters | tableau d’AzureContentFilterForResponsesAPI | Le filtre de contenu résulte de RAI. | Oui | |
| Conversation └> | OpenAI.ConversationReference ou null | Non | ||
| └created_at | entier | Horodatage Unix (en secondes) de la création de cette réponse. | Oui | |
| Erreur └ ; | OpenAI.ResponseError ou null | Oui | ||
| └─ identifiant | ficelle | Identificateur unique pour cette réponse. | Oui | |
| └─ détails_incomplets | OpenAI.ResponseIncompleteDetails ou null | Oui | ||
| └─ Instructions | chaîne ou tableau d’OpenAI.InputItem ou null | Oui | ||
| └ max_output_tokens | entier ou null | Non | ||
| └max_tool_calls | entier ou null | Non | ||
| └─ Métadonnées | OpenAI.Metadata ou null | Non | ||
| └─ Modèle | ficelle | ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAIoffre un large éventail de modèles avec différentes fonctionnalités, performances caractéristiques et points de prix. Reportez-vous au guide du modèle pour parcourir et comparer les modèles disponibles. |
Non | |
| └─ Objet | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
Oui | |
| └─ Sortie | tableau d’OpenAI.OutputItem | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendentsur la réponse du modèle. - Plutôt que d’accéder au premier élément du tableau output et en supposant qu’il s’agit d’un assistant message avec le contenu généré pardu modèle, vous pouvez envisager d’utiliser la propriété output_text oùpris en charge dans les kits SDK. |
Oui | |
| └─output_text | chaîne ou nulle | Non | ||
| └─ appels_outils_parallèles | booléen | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | Oui | Vrai |
| └identifiant_de_réponse_précédent (`previous_response_id`) | chaîne ou nulle | Non | ||
| └─ invite | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. En savoir plus. |
Non | |
| └prompt_cache_key | ficelle | Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ.
En savoir plus. |
Non | |
| └prompt_cache_retention | chaîne ou nulle | Non | ||
| └─ Raisonnement | OpenAI.Reasoning ou Null | Non | ||
| └safety_identifier | ficelle | Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI. Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus. |
Non | |
| └─ État | enum | État de la génération de réponse. Valeurs possibles : completed, failed,in_progress, cancelled, queued ou incomplete.Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete |
Non | |
| └─ Température | nombre ou null | Non | 1 | |
| └─ texte | OpenAI.ResponseTextParam | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus: - Entrées et sorties texte - Sorties structurées |
Non | |
| └─ choix_outil | OpenAI.ToolChoiceParam | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération une réponse. Voir le tools paramètre pour voir comment spécifier les outilsle modèle peut effectuer un appel. |
Non | |
| └─ Outils | OpenAI.ToolsArray | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.Nous prenons en charge les catégories d’outils suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent le Les capacités du modèle, comme recherche web ou outils intégrés. - Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur Outils MCP. - Appels de fonction (outils personnalisés) : fonctions définies par vous, activation du modèle pour appeler votre propre code avec des arguments fortement typés et sorties. En savoir plus sur fonction appelant. Vous pouvez également utiliser outils personnalisés pour appeler votre propre code. |
Non | |
| ├ top_logprobs | entier ou null | Non | ||
| └─ top_p | nombre ou null | Non | 1 | |
| └─ troncature | chaîne ou nulle | Non | handicapé | |
| └─ utilisation | OpenAI.ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, répartition des jetons de sortie et du nombre total de jetons utilisés. |
Non | |
| └─ Utilisateur | chaîne (déconseillée) | Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.Identificateur stable pour vos utilisateurs finaux. Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus. |
Non | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.incomplete.Valeurs possibles : response.incomplete |
Oui |
OpenAI.ResponseItemList
Liste des éléments de réponse.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.ItemResource | Liste des éléments utilisés pour générer cette réponse. | Oui | |
| premier_identifiant | ficelle | ID du premier élément de la liste. | Oui | |
| has_more | booléen | Indique s’il existe d’autres éléments disponibles. | Oui | |
| last_id | ficelle | ID du dernier élément de la liste. | Oui | |
| objet | enum | Le type d’objet retourné doit être list.Valeurs possibles : list |
Oui |
OpenAI.ResponseLogProb
Un logprob est la probabilité logarithmique que le modèle affecte à la production d’un jeton particulier à une position donnée dans la séquence. Les valeurs logprob moins négatives (plus élevées) indiquent une plus grande confiance du modèle dans ce choix de jeton.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| logprob | nombre | La probabilité logarithmique de ce jeton. | Oui | |
| token | ficelle | Jeton de texte possible. | Oui | |
| top_logprobs | tableau d’OpenAI.ResponseLogProbTopLogprobs | Probabilité du journal des 20 premiers jetons les plus probables. | Non |
OpenAI.ResponseLogProbTopLogprobs
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| logprob | nombre | Non | ||
| token | ficelle | Non |
OpenAI.ResponseMCPCallArgumentsDeltaEvent
Émis lorsqu’il y a un delta (mise à jour partielle) des arguments d’un appel d’outil de MCP.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| delta | ficelle | Chaîne JSON contenant la mise à jour partielle vers les arguments de l’appel de l’outil MCP. | Oui | |
| item_id | ficelle | L’identifiant unique de l’élément d’appel de l’outil de MCP en cours de traitement. | Oui | |
| output_index | entier | L’index de l’élément de sortie dans le groupe de sortie de la réponse. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; Toujours « response.mcp_call_arguments.delta ». Valeurs possibles : response.mcp_call_arguments.delta |
Oui |
OpenAI.ResponseMCPCallFailedEvent
Émis lorsqu’un appel d’outil MCP a échoué.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_id | ficelle | ID de l’élément d’appel de l’outil MCP qui a échoué. | Oui | |
| output_index | entier | Index de l’élément de sortie qui a échoué. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; Toujours « response.mcp_call.failed ». Valeurs possibles : response.mcp_call.failed |
Oui |
OpenAI.ResponseMCPCallInProgressEvent
Émis lorsqu’un appel d’outil MCP est en cours.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_id | ficelle | L’identifiant unique de l’élément d’appel de l’outil de MCP en cours de traitement. | Oui | |
| output_index | entier | L’index de l’élément de sortie dans le groupe de sortie de la réponse. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; Toujours « response.mcp_call.in_progress ». Valeurs possibles : response.mcp_call.in_progress |
Oui |
OpenAI.ResponseMCPListToolsFailedEvent
Émis lorsque la tentative de liste des outils MCP disponibles a échoué.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_id | ficelle | ID de l’élément d’appel de l’outil MCP qui a échoué. | Oui | |
| output_index | entier | Index de l’élément de sortie qui a échoué. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; Toujours « response.mcp_list_tools.failed ». Valeurs possibles : response.mcp_list_tools.failed |
Oui |
OpenAI.ResponseMCPListToolsInProgressEvent
Émis lorsque le système est en train de récupérer la liste des outils MCP disponibles.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_id | ficelle | ID de l’élément d’appel de l’outil MCP en cours de traitement. | Oui | |
| output_index | entier | Index de l’élément de sortie en cours de traitement. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; Toujours « response.mcp_list_tools.in_progress ». Valeurs possibles : response.mcp_list_tools.in_progress |
Oui |
OpenAI.ResponseModalities
Types de sortie que vous souhaitez générer le modèle.
La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut :
["text"] Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser : ["text", "audio"]
Ce schéma accepte l’un des types suivants :
- array
- zéro
OpenAI.ResponseOutputItemAddedEvent
Émis lorsqu’un nouvel élément de sortie est ajouté.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item | OpenAI.OutputItem | Oui | ||
| └─ Type | OpenAI.OutputItemType | Oui | ||
| output_index | entier | Index de l’élément de sortie qui a été ajouté. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.output_item.added.Valeurs possibles : response.output_item.added |
Oui |
OpenAI.ResponseOutputTextAnnotationAddedEvent
Émis lorsqu’une annotation est ajoutée au contenu du texte de sortie.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| annotation | OpenAI.Annotation | Annotation qui s’applique à une étendue de texte de sortie. | Oui | |
| └─ Type | OpenAI.AnnotationType | Oui | ||
| annotation_index | entier | Index de l’annotation dans la partie de contenu. | Oui | |
| content_index | entier | Index de la partie de contenu dans l’élément de sortie. | Oui | |
| item_id | ficelle | Identificateur unique de l’élément auquel l’annotation est ajoutée. | Oui | |
| output_index | entier | L’index de l’élément de sortie dans le groupe de sortie de la réponse. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; Toujours « response.output_text.annotation.added ». Valeurs possibles : response.output_text.annotation.added |
Oui |
OpenAI.ResponsePromptVariables
Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée de réponse tels que des images ou des fichiers.
Type : objet
OpenAI.ResponseQueuedEvent
Émis lorsqu’une réponse est mise en file d’attente et en attente d’être traitée.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| response | OpenAI.Response | Oui | ||
| └─ arrière-plan | booléen ou null | Non | ||
| └completed_at | chaîne ou nulle | Non | ||
| └content_filters | tableau d’AzureContentFilterForResponsesAPI | Le filtre de contenu résulte de RAI. | Oui | |
| Conversation └> | OpenAI.ConversationReference ou null | Non | ||
| └created_at | entier | Horodatage Unix (en secondes) de la création de cette réponse. | Oui | |
| Erreur └ ; | OpenAI.ResponseError ou null | Oui | ||
| └─ identifiant | ficelle | Identificateur unique pour cette réponse. | Oui | |
| └─ détails_incomplets | OpenAI.ResponseIncompleteDetails ou null | Oui | ||
| └─ Instructions | chaîne ou tableau d’OpenAI.InputItem ou null | Oui | ||
| └ max_output_tokens | entier ou null | Non | ||
| └max_tool_calls | entier ou null | Non | ||
| └─ Métadonnées | OpenAI.Metadata ou null | Non | ||
| └─ Modèle | ficelle | ID de modèle utilisé pour générer la réponse, comme gpt-4o ou o3. OpenAIoffre un large éventail de modèles avec différentes fonctionnalités, performances caractéristiques et points de prix. Reportez-vous au guide du modèle pour parcourir et comparer les modèles disponibles. |
Non | |
| └─ Objet | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
Oui | |
| └─ Sortie | tableau d’OpenAI.OutputItem | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendentsur la réponse du modèle. - Plutôt que d’accéder au premier élément du tableau output et en supposant qu’il s’agit d’un assistant message avec le contenu généré pardu modèle, vous pouvez envisager d’utiliser la propriété output_text oùpris en charge dans les kits SDK. |
Oui | |
| └─output_text | chaîne ou nulle | Non | ||
| └─ appels_outils_parallèles | booléen | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | Oui | Vrai |
| └identifiant_de_réponse_précédent (`previous_response_id`) | chaîne ou nulle | Non | ||
| └─ invite | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. En savoir plus. |
Non | |
| └prompt_cache_key | ficelle | Utilisé par OpenAI pour mettre en cache des réponses pour des requêtes similaires afin d’optimiser les taux d’accès de votre cache. Remplace le user champ.
En savoir plus. |
Non | |
| └prompt_cache_retention | chaîne ou nulle | Non | ||
| └─ Raisonnement | OpenAI.Reasoning ou Null | Non | ||
| └safety_identifier | ficelle | Identificateur stable utilisé pour détecter les utilisateurs de votre application susceptibles de violer les stratégies d’utilisation d’OpenAI. Les ID doivent être une chaîne qui identifie de manière unique chaque utilisateur. Nous vous recommandons de hacher leur nom d’utilisateur ou leur adresse e-mail pour éviter de nous envoyer des informations d’identification. En savoir plus. |
Non | |
| └─ État | enum | État de la génération de réponse. Valeurs possibles : completed, failed,in_progress, cancelled, queued ou incomplete.Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete |
Non | |
| └─ Température | nombre ou null | Non | 1 | |
| └─ texte | OpenAI.ResponseTextParam | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus: - Entrées et sorties texte - Sorties structurées |
Non | |
| └─ choix_outil | OpenAI.ToolChoiceParam | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération une réponse. Voir le tools paramètre pour voir comment spécifier les outilsle modèle peut effectuer un appel. |
Non | |
| └─ Outils | OpenAI.ToolsArray | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.Nous prenons en charge les catégories d’outils suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent le Les capacités du modèle, comme recherche web ou outils intégrés. - Outils MCP : Intégrations avec des systèmes tiers via des serveurs MCP personnalisés ou connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur Outils MCP. - Appels de fonction (outils personnalisés) : fonctions définies par vous, activation du modèle pour appeler votre propre code avec des arguments fortement typés et sorties. En savoir plus sur fonction appelant. Vous pouvez également utiliser outils personnalisés pour appeler votre propre code. |
Non | |
| ├ top_logprobs | entier ou null | Non | ||
| └─ top_p | nombre ou null | Non | 1 | |
| └─ troncature | chaîne ou nulle | Non | handicapé | |
| └─ utilisation | OpenAI.ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, répartition des jetons de sortie et du nombre total de jetons utilisés. |
Non | |
| └─ Utilisateur | chaîne (déconseillée) | Ce champ est remplacé par safety_identifier et prompt_cache_key. Utilisez prompt_cache_key plutôt pour gérer les optimisations de mise en cache.Identificateur stable pour vos utilisateurs finaux. Utilisé pour améliorer les taux d’accès au cache en compartimentant mieux les demandes similaires et pour aider OpenAI à détecter et à prévenir les abus. En savoir plus. |
Non | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; Toujours « response.queued ». Valeurs possibles : response.queued |
Oui |
OpenAI.ResponseReasoningSummaryPartAddedEvent
Émis lorsqu’une nouvelle partie récapitulative de raisonnement est ajoutée.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_id | ficelle | ID de l’élément avec lequel cette partie récapitulative est associée. | Oui | |
| output_index | entier | Index de l’élément de sortie auquel cette partie récapitulative est associée. | Oui | |
| part | OpenAI.ResponseReasoningSummaryPartAddedEventPart | Oui | ||
| └─ texte | ficelle | Oui | ||
| └─ Type | enum | Valeurs possibles : summary_text |
Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| summary_index | entier | Index de la partie récapitulative dans le résumé du raisonnement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.reasoning_summary_part.added.Valeurs possibles : response.reasoning_summary_part.added |
Oui |
OpenAI.ResponseReasoningSummaryPartAddedEventPart
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Oui | ||
| type | enum | Valeurs possibles : summary_text |
Oui |
OpenAI.ResponseReasoningSummaryTextDeltaEvent
Émis lorsqu’un delta est ajouté à un texte récapitulatif de raisonnement.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| delta | ficelle | Le delta du texte qui a été ajouté au résumé. | Oui | |
| item_id | ficelle | L’ID de l’élément associé à ce texte de delta de résumé. | Oui | |
| output_index | entier | L’index de l’élément de sortie associé à ce delta de texte de résumé. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| summary_index | entier | Index de la partie récapitulative dans le résumé du raisonnement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.reasoning_summary_text.delta.Valeurs possibles : response.reasoning_summary_text.delta |
Oui |
OpenAI.ResponseReasoningTextDeltaEvent
Émis lorsqu’un delta est ajouté à un texte de raisonnement.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| content_index | entier | L’index de la partie de contenu du raisonnement auquel ce delta est associé. | Oui | |
| delta | ficelle | Delta de texte ajouté au contenu du raisonnement. | Oui | |
| item_id | ficelle | ID de l’élément associé à ce delta de texte de raisonnement. | Oui | |
| output_index | entier | Index de l’élément de sortie auquel ce delta de texte de raisonnement est associé. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.reasoning_text.delta.Valeurs possibles : response.reasoning_text.delta |
Oui |
OpenAI.ResponseRefusalDeltaEvent
Émis lorsqu’il existe un texte de refus partiel.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| content_index | entier | Index de la partie de contenu à laquelle le texte de refus est ajouté. | Oui | |
| delta | ficelle | Texte de refus ajouté. | Oui | |
| item_id | ficelle | ID de l’élément de sortie auquel le texte de refus est ajouté. | Oui | |
| output_index | entier | Index de l’élément de sortie auquel le texte de refus est ajouté. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.refusal.delta.Valeurs possibles : response.refusal.delta |
Oui |
OpenAI.ResponseStreamOptions
Options de diffusion en continu des réponses. Définissez cette valeur uniquement lorsque vous définissez stream: true.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| include_obfuscation | booléen | Lorsque la valeur est true, l’obfuscation de flux est activée. Ajouts d’obfuscation de flux caractères aléatoires sur un obfuscation champ sur les événements delta de diffusion en continu versnormalisez les tailles de charge utile en tant qu’atténuation de certaines attaques par canal latéral. Ces champs d’obfuscation sont inclus par défaut, mais ajoutent une petite quantité d’une surcharge sur le flux de données. Vous pouvez définir sur include_obfuscationfalse pour optimiser la bande passante si vous approuvez les liens réseau entre votre application et l’API OpenAI. |
Non |
OpenAI.ResponseTextDeltaEvent
Émis lorsqu’il existe un delta de texte supplémentaire.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| content_index | entier | Index de la partie de contenu à laquelle le delta de texte a été ajouté. | Oui | |
| delta | ficelle | Le delta de texte qui a été ajouté. | Oui | |
| item_id | ficelle | ID de l’élément de sortie auquel le delta de texte a été ajouté. | Oui | |
| logprobs | tableau d’OpenAI.ResponseLogProb | Probabilités de journal des jetons dans le delta. | Oui | |
| output_index | entier | Index de l’élément de sortie à laquelle le delta de texte a été ajouté. | Oui | |
| sequence_number | entier | Numéro de séquence de cet événement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.output_text.delta.Valeurs possibles : response.output_text.delta |
Oui |
OpenAI.ResponseTextParam
Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus:
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| format | OpenAI.TextResponseFormatConfiguration | Objet spécifiant le format que le modèle doit générer. La configuration de { "type": "json_schema" } active les sorties structurées,qui garantit que le modèle correspondra à votre schéma JSON fourni. Apprenez-en davantage dans le Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.*Non recommandé pour les modèles gpt-4o et versions ultérieures : Activer { "type": "json_object" } permet de passer au mode JSON plus ancien, quigarantit que le message généré par le modèle est json valide. Utilisation de json_schemaLa solution est préférée pour les modèles qui la prennent en charge. |
Non | |
| verbosité | OpenAI.Verbosity | Contraint la verbosité de la réponse du modèle. Les valeurs inférieures entraînent des réponses plus concises, tandis que des valeurs plus élevées entraînent des réponses plus détaillées. Les valeurs actuellement prises en charge sont low, medium et high. |
Non |
OpenAI.ResponseUsage
Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| input_tokens | entier | Nombre de jetons d’entrée. | Oui | |
| input_tokens_details | OpenAI.ResponseUsageInputTokensDetails | Oui | ||
| └cached_tokens | entier | Oui | ||
| output_tokens | entier | Nombre de jetons de sortie. | Oui | |
| output_tokens_details | OpenAI.ResponseUsageOutputTokensDetails | Oui | ||
| └─ jetons_de_raisonnement | entier | Oui | ||
| total_tokens | entier | Nombre total de jetons utilisés. | Oui |
OpenAI.ResponseUsageInputTokensDetails
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| cached_tokens | entier | Oui |
OpenAI.ResponseUsageOutputTokensDetails
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| jetons_de_raisonnement | entier | Oui |
OpenAI.ResponseWebSearchCallInProgressEvent
Remarque : web_search n’est pas encore disponible via Azure OpenAI.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_id | ficelle | ID unique de l’élément de sortie associé à l’appel de recherche web. | Oui | |
| output_index | entier | Index de l’élément de sortie auquel l’appel de recherche web est associé. | Oui | |
| sequence_number | entier | Numéro de séquence de l’appel de recherche web en cours de traitement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.web_search_call.in_progress.Valeurs possibles : response.web_search_call.in_progress |
Oui |
OpenAI.ResponseWebSearchCallSearchingEvent
Remarque : web_search n’est pas encore disponible via Azure OpenAI.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| item_id | ficelle | ID unique de l’élément de sortie associé à l’appel de recherche web. | Oui | |
| output_index | entier | Index de l’élément de sortie auquel l’appel de recherche web est associé. | Oui | |
| sequence_number | entier | Numéro de séquence de l’appel de recherche web en cours de traitement. | Oui | |
| type | enum | le type de l'événement ; A toujours la valeur response.web_search_call.searching.Valeurs possibles : response.web_search_call.searching |
Oui |
OpenAI.RunCompletionUsage
Statistiques d’utilisation relatives à l’exécution. Cette valeur est null si l’exécution n’est pas dans un état terminal (c’est-à-dire in_progress, queued, etc.).
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| completion_tokens | entier | Nombre de jetons d’achèvement utilisés au cours de l’exécution. | Oui | |
| prompt_tokens | entier | Nombre de jetons de prompt utilisés au cours de l’exécution. | Oui | |
| total_tokens | entier | Nombre total de jetons utilisés (prompt + achèvement). | Oui |
OpenAI.RunGraderRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| outil de notation | OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderPython ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint | Classe utilisée pour le travail de réglage précis. | Oui | |
| item | OpenAI.RunGraderRequestItem | Non | ||
| model_sample | ficelle | Exemple de modèle à évaluer. Cette valeur sera utilisée pour remplir l’espace de noms sample. Pour plus d’informations, consultez le guide.La variable output_json est remplie si l’exemple de modèle est unechaîne JSON valide. |
Oui |
OpenAI.RunGraderRequestItem
Type : objet
OpenAI.RunGraderResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| metadata | OpenAI.RunGraderResponseMetadata | Oui | ||
| model_grader_token_usage_per_model | objet | Oui | ||
| récompense | nombre | Oui | ||
| sub_rewards | objet | Oui |
OpenAI.RunGraderResponseMetadata
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| Erreurs | OpenAI.RunGraderResponseMetadataErrors | Oui | ||
| execution_time | nombre | Oui | ||
| nom | ficelle | Oui | ||
| sampled_model_name | chaîne ou nulle | Oui | ||
| Scores | objet | Oui | ||
| token_usage | entier ou null | Oui | ||
| type | ficelle | Oui |
OpenAI.RunGraderResponseMetadataErrors
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| formula_parse_error | booléen | Oui | ||
| invalid_variable_error | booléen | Oui | ||
| model_grader_parse_error | booléen | Oui | ||
| model_grader_refusal_error | booléen | Oui | ||
| model_grader_server_error | booléen | Oui | ||
| model_grader_server_error_details | chaîne ou nulle | Oui | ||
| other_error | booléen | Oui | ||
| python_grader_runtime_error | booléen | Oui | ||
| python_grader_runtime_error_details | chaîne ou nulle | Oui | ||
| python_grader_server_error | booléen | Oui | ||
| python_grader_server_error_type | chaîne ou nulle | Oui | ||
| sample_parse_error | booléen | Oui | ||
| truncated_observation_error | booléen | Oui | ||
| unresponsive_reward_error | booléen | Oui |
OpenAI.RunObject
Représente une exécution d’exécution sur un thread.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| assistant_id | ficelle | ID de l’Assistant utilisé pour l’exécution de cette exécution. | Oui | |
| cancelled_at | chaîne ou nulle | Le timestamp Unix (en secondes) lorsque l’exécution a été annulée. | Oui | |
| terminé_à | chaîne ou nulle | Horodatage Unix (en secondes) de la fin de l’exécution. | Oui | |
| date_de_création | entier | Horodatage Unix (en secondes) de la création de l’exécution. | Oui | |
| expires_at | chaîne ou nulle | Horodatage Unix (en secondes) de l’expiration de l’exécution. | Oui | |
| failed_at | chaîne ou nulle | Horodatage Unix (en secondes) de l’échec de l’exécution. | Oui | |
| id | ficelle | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Oui | |
| incomplete_details | OpenAI.RunObjectIncompleteDetails ou null | Détails sur la raison pour laquelle l’exécution est incomplète. Sera null si l’exécution n’est pas incomplète. |
Oui | |
| instructions | ficelle | Instructions que l’Assistant a utilisées pour cette exécution. | Oui | |
| dernière_erreur | OpenAI.RunObjectLastError ou null | Dernière erreur associée à cette exécution. Est null en l’absence d’erreurs. |
Oui | |
| max_completion_tokens | entier ou null | Nombre maximal de jetons de saisie semi-automatique spécifiés comme ayant été utilisés au cours de l’exécution. | Oui | |
| max_prompt_tokens | entier ou null | Nombre maximal de jetons de prompt spécifiés comme ayant été utilisés au cours de l’exécution. | Oui | |
| metadata | OpenAI.Metadata ou null | Oui | ||
| modèle | ficelle | Modèle utilisé par l’Assistant pour cette exécution. | Oui | |
| objet | enum | Le type d’objet, qui est toujours thread.run.Valeurs possibles : thread.run |
Oui | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | Oui | |
| required_action | OpenAI.RunObjectRequiredAction ou null | Détails de l’action requise pour poursuivre l’exécution. Est null si aucune action n’est requise. |
Oui | |
| format_de_réponse | OpenAI.AssistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important :* lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Oui | |
| started_at | chaîne ou nulle | Horodatage Unix (en secondes) du démarrage de l’exécution. | Oui | |
| status | OpenAI.RunStatus | État de l’exécution, qui peut être soit queued, , requires_actionin_progresscancelledcancelling, , failed, , , completed, incompleteou .expired |
Oui | |
| température | nombre ou null | La température d’échantillonnage utilisée pour cette exécution. Si elle n’est pas définie, la valeur par défaut est 1. | Non | |
| thread_id | ficelle | ID du thread qui a été exécuté dans le cadre de cette exécution. | Oui | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils avant de répondre à l’utilisateur.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
Oui | |
| outils | tableau d’OpenAI.AssistantTool | Liste des outils utilisés par l’Assistant pour cette exécution. | Oui | [] |
| top_p | nombre ou null | La valeur d’échantillonnage du noyau utilisée pour cette exécution. Si elle n’est pas définie, la valeur par défaut est 1. | Non | |
| truncation_strategy | OpenAI.TruncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | Oui | |
| usage | OpenAI.RunCompletionUsage ou null | Oui |
OpenAI.RunObjectIncompleteDetails
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| reason | enum | Valeurs possibles : max_completion_tokens, max_prompt_tokens |
Non |
OpenAI.RunObjectLastError
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code | enum | Valeurs possibles : server_error, , rate_limit_exceededinvalid_prompt |
Oui | |
| message | ficelle | Oui |
OpenAI.RunObjectRequiredAction
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| submit_tool_outputs | OpenAI.RunObjectRequiredActionSubmitToolOutputs | Oui | ||
| type | enum | Valeurs possibles : submit_tool_outputs |
Oui |
OpenAI.RunObjectRequiredActionSubmitToolOutputs
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| tool_calls | tableau d’OpenAI.RunToolCallObject | Oui |
OpenAI.RunStatus
État de l’exécution, qui peut être soit queued, , requires_actionin_progresscancelledcancelling, , failed, , , completed, incompleteou .expired
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | queuedin_progressrequires_actioncancellingcancelledfailedcompletedincompleteexpired |
OpenAI.RunStepCompletionUsage
Statistiques d’utilisation relatives à l’étape d’exécution. Cette valeur sera null pendant que l’état de l’étape d’exécution est in_progress.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| completion_tokens | entier | Nombre de jetons d’achèvement utilisés au cours de l’étape d’exécution. | Oui | |
| prompt_tokens | entier | Nombre de jetons de prompt utilisés au cours de l’étape d’exécution. | Oui | |
| total_tokens | entier | Nombre total de jetons utilisés (prompt + achèvement). | Oui |
OpenAI.RunStepDetailsMessageCreationObject
Détails de la création du message à l’étape d’exécution.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| message_creation | OpenAI.RunStepDetailsMessageCreationObjectMessageCreation | Oui | ||
| type | enum | A toujours la valeur message_creation.Valeurs possibles : message_creation |
Oui |
OpenAI.RunStepDetailsMessageCreationObjectMessageCreation
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| message_id | ficelle | Oui |
OpenAI.RunStepDetailsToolCall
Discriminateur pour OpenAI.RunStepDetailsToolCall
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
code_interpreter |
OpenAI.RunStepDetailsToolCallsCodeObject |
file_search |
OpenAI.RunStepDetailsToolCallsFileSearchObject |
function |
OpenAI.RunStepDetailsToolCallsFunctionObject |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.RunStepDetailsToolCallType | Oui |
OpenAI.RunStepDetailsToolCallType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | code_interpreterfile_searchfunction |
OpenAI.RunStepDetailsToolCallsCodeObject
Détails de l’appel de l’outil Interpréteur de code dans lequel l’étape d’exécution était impliquée.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code_interpreter | OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter | Oui | ||
| └─ Entrée | ficelle | Oui | ||
| └─ sorties | tableau d’OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject ou OpenAI.RunStepDetailsToolCallsCodeOutputImageObject | Oui | ||
| id | ficelle | ID de l’appel de l’outil. | Oui | |
| type | enum | Le type d’appel d’outil. Cela va toujours être code_interpreter pour ce type d’appel d’outil.Valeurs possibles : code_interpreter |
Oui |
OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| entrée | ficelle | Oui | ||
| sorties | tableau d’OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject ou OpenAI.RunStepDetailsToolCallsCodeOutputImageObject | Oui |
OpenAI.RunStepDetailsToolCallsCodeOutputImageObject
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| image | OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage | Oui | ||
| type | enum | A toujours la valeur image.Valeurs possibles : image |
Oui |
OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiant_de_fichier | ficelle | Oui |
OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject
Sortie de texte de l’appel de l’outil Interpréteur de code dans le cadre d’une étape d’exécution.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| logs | ficelle | La sortie de texte de l’appel de l’outil Interpréteur de code. | Oui | |
| type | enum | A toujours la valeur logs.Valeurs possibles : logs |
Oui |
OpenAI.RunStepDetailsToolCallsFileSearchObject
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| file_search | OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch | Oui | ||
| └ranking_options | OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject | Options de classement pour la recherche de fichiers. | Non | |
| ─ résultats | tableau d’OpenAI.RunStepDetailsToolCallsFileSearchResultObject | Non | ||
| id | ficelle | L’ID de l’objet d’appel d’outil. | Oui | |
| type | enum | Le type d’appel d’outil. Cela va toujours être file_search pour ce type d’appel d’outil.Valeurs possibles : file_search |
Oui |
OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| options_de_classement | OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject | Options de classement pour la recherche de fichiers. | Non | |
| results | tableau d’OpenAI.RunStepDetailsToolCallsFileSearchResultObject | Non |
OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject
Options de classement pour la recherche de fichiers.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| ranker | OpenAI.FileSearchRanker | Outil de classement à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, le classificateur auto sera utilisé. |
Oui | |
| seuil de score | nombre | Seuil de score pour la recherche de fichiers. Toutes les valeurs doivent être un nombre à virgule flottante compris entre 0 et 1. Contraintes : min : 0, max : 1 |
Oui |
OpenAI.RunStepDetailsToolCallsFileSearchResultObject
Instance de résultat de la recherche de fichiers.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | tableau d’OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent | Contenu du résultat trouvé. Le contenu est inclus uniquement s’il est demandé via le paramètre de requête Include. | Non | |
| identifiant_de_fichier | ficelle | ID du fichier dans lequel le résultat a été trouvé. | Oui | |
| nom_de_fichier | ficelle | Nom du fichier dans lequel le résultat a été trouvé. | Oui | |
| score | nombre | Score du résultat. Toutes les valeurs doivent être un nombre à virgule flottante compris entre 0 et 1. Contraintes : min : 0, max : 1 |
Oui |
OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Non | ||
| type | enum | Valeurs possibles : text |
Non |
OpenAI.RunStepDetailsToolCallsFunctionObject
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| function | OpenAI.RunStepDetailsToolCallsFunctionObjectFunction | Oui | ||
| └─ Arguments | ficelle | Oui | ||
| └─ Nom | ficelle | Oui | ||
| └─ Sortie | chaîne ou nulle | Oui | ||
| id | ficelle | L’ID de l’objet d’appel d’outil. | Oui | |
| type | enum | Le type d’appel d’outil. Cela va toujours être function pour ce type d’appel d’outil.Valeurs possibles : function |
Oui |
OpenAI.RunStepDetailsToolCallsFunctionObjectFunction
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| arguments | ficelle | Oui | ||
| nom | ficelle | Oui | ||
| output | chaîne ou nulle | Oui |
OpenAI.RunStepDetailsToolCallsObject
Détails de l’appel d’outil.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| tool_calls | tableau d’OpenAI.RunStepDetailsToolCall | Un tableau d’appels d’outils dans lequel l’étape d’exécution était impliquée. Celles-ci peuvent être associées à l’un des trois types d’outils : code_interpreter, file_searchou function. |
Oui | |
| type | enum | A toujours la valeur tool_calls.Valeurs possibles : tool_calls |
Oui |
OpenAI.RunStepObject
Représente une étape dans une exécution.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| assistant_id | ficelle | ID de l’Assistant associé à l’étape d’exécution. | Oui | |
| cancelled_at | chaîne ou nulle | Oui | ||
| terminé_à | chaîne ou nulle | Oui | ||
| date_de_création | entier | Horodatage Unix (en secondes) pour la création de l’étape d’exécution. | Oui | |
| expired_at | chaîne ou nulle | Oui | ||
| failed_at | chaîne ou nulle | Oui | ||
| id | ficelle | Identificateur de l’étape d’exécution qui peut être référencé dans les points de terminaison d’API. | Oui | |
| dernière_erreur | OpenAI.RunStepObjectLastError ou null | Oui | ||
| metadata | OpenAI.Metadata ou null | Oui | ||
| objet | enum | Le type d’objet, qui est toujours thread.run.step.Valeurs possibles : thread.run.step |
Oui | |
| run_id | ficelle | ID de l’exécution dont fait partie cette étape d’exécution. | Oui | |
| status | enum | État de l’étape d’exécution, qui peut être in_progresssoit , , cancelledfailed, , completedou expired.Valeurs possibles : in_progress, , cancelledfailed, completed,expired |
Oui | |
| step_details | OpenAI.RunStepDetailsMessageCreationObject ou OpenAI.RunStepDetailsToolCallsObject | Détails de l’étape d’exécution. | Oui | |
| thread_id | ficelle | ID du thread qui a été exécuté. | Oui | |
| type | enum | Le type d’étape d’exécution, qui peut être message_creation ou tool_calls.Valeurs possibles : message_creation, tool_calls |
Oui | |
| usage | OpenAI.RunStepCompletionUsage | Statistiques d’utilisation relatives à l’étape d’exécution. Cette valeur sera null pendant que l’état de l’étape d’exécution est in_progress. |
Oui |
OpenAI.RunStepObjectLastError
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code | enum | Valeurs possibles : server_error, rate_limit_exceeded |
Oui | |
| message | ficelle | Oui |
OpenAI.RunToolCallObject
Objets d’appel d’outil
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| function | OpenAI.RunToolCallObjectFunction | Oui | ||
| └─ Arguments | ficelle | Oui | ||
| └─ Nom | ficelle | Oui | ||
| id | ficelle | ID de l’appel de l’outil. Cet ID doit être référencé lorsque vous envoyez les sorties de l’outil à l’aide des sorties de l’outil Envoyer pour exécuter le point de terminaison. | Oui | |
| type | enum | Type d’appel d’outil pour lequel la sortie est requise. Pour l’instant, c’est toujours function.Valeurs possibles : function |
Oui |
OpenAI.RunToolCallObjectFunction
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| arguments | ficelle | Oui | ||
| nom | ficelle | Oui |
OpenAI.Capture d’écran
Action de capture d’écran.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action de capture d’écran, cette propriété est toujours défini sur screenshot.Valeurs possibles : screenshot |
Oui |
OpenAI.Scroll
Action de défilement.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| scroll_x | entier | Distance de défilement horizontale. | Oui | |
| scroll_y | entier | Distance de défilement verticale. | Oui | |
| type | enum | Spécifie le type d’événement. Pour une action de défilement, cette propriété est toujours défini sur scroll.Valeurs possibles : scroll |
Oui | |
| x | entier | Coordonnée x où le défilement s’est produit. | Oui | |
| y | entier | Coordonnée y où le défilement s’est produit. | Oui |
OpenAI.SearchContextSize
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | lowmediumhigh |
OpenAI.SpecificApplyPatchParam
Force le modèle à appeler l’outil apply_patch lors de l’exécution d’un appel d’outil.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Outil à appeler. A toujours la valeur apply_patch.Valeurs possibles : apply_patch |
Oui |
OpenAI.SpecificFunctionShellParam
Force le modèle à appeler l’outil shell lorsqu’un appel d’outil est requis.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Outil à appeler. A toujours la valeur shell.Valeurs possibles : shell |
Oui |
OpenAI.StaticChunkingStrategy
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| chunk_overlap_tokens | entier | Nombre de jetons qui se chevauchent entre segmentations. La valeur par défaut est 400.Notez que le chevauchement ne doit pas excéder la moitié de max_chunk_size_tokens. |
Oui | |
| max_chunk_size_tokens | entier | Nombre maximal de jetons dans chaque segmentation. La valeur par défaut est 800. La valeur minimale est 100, alors que la valeur maximale est 4096.Contraintes : min : 100, max : 4096 |
Oui |
OpenAI.StaticChunkingStrategyRequestParam
Personnalisez votre propre stratégie de segmentation en définissant la taille de bloc et le chevauchement de blocs.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| statique | OpenAI.StaticChunkingStrategy | Oui | ||
| type | enum | A toujours la valeur static.Valeurs possibles : static |
Oui |
OpenAI.StaticChunkingStrategyResponseParam
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| statique | OpenAI.StaticChunkingStrategy | Oui | ||
| type | enum | A toujours la valeur static.Valeurs possibles : static |
Oui |
OpenAI.StopConfiguration
Non pris en charge par les derniers modèles de raisonnement o3 et o4-mini.
Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.
Ce schéma accepte l’un des types suivants :
- array
- zéro
OpenAI.SubmitToolOutputsRunRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| ruisseau | booléen ou null | Non | ||
| tool_outputs | tableau d’OpenAI.SubmitToolOutputsRunRequestToolOutputs | Liste des outils pour lesquels les sorties sont envoyées. | Oui |
OpenAI.SubmitToolOutputsRunRequestToolOutputs
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| output | ficelle | Non | ||
| tool_call_id | ficelle | Non |
OpenAI.Summary
Un texte résumé tiré du modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Un résumé des résultats de raisonnement du modèle jusqu’à présent. | Oui | |
| type | enum | Type de l’objet. A toujours la valeur summary_text.Valeurs possibles : summary_text |
Oui |
OpenAI.SummaryTextContent
Un texte résumé tiré du modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Un résumé des résultats de raisonnement du modèle jusqu’à présent. | Oui | |
| type | enum | Type de l’objet. A toujours la valeur summary_text.Valeurs possibles : summary_text |
Oui |
OpenAI.TextAnnotation
Discriminateur pour OpenAI.TextAnnotation
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
file_citation |
OpenAI.MessageContentTextAnnotationsFileCitationObject |
file_path |
OpenAI.MessageContentTextAnnotationsFilePathObject |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.TextAnnotationType | Oui |
OpenAI.TextAnnotationType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | file_citationfile_path |
OpenAI.TextContent
Contenu texte.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Oui | ||
| type | enum | Valeurs possibles : text |
Oui |
OpenAI.TextResponseFormatConfiguration
Objet spécifiant le format que le modèle doit générer.
La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Apprenez-en davantage dans le
Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.
Non recommandé pour gpt-4o et modèles plus récents :* Réglage pour { "type": "json_object" } activer l’ancien mode JSON, qui garantit que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
Discriminateur pour OpenAI.TextResponseFormatConfiguration
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
json_schema |
OpenAI.TextResponseFormatJsonSchema |
text |
OpenAI.TextResponseFormatConfigurationResponseFormatText |
json_object |
OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.TextResponseFormatConfigurationType | Oui |
OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject
Format de réponse d’objet JSON. Méthode plus ancienne de génération de réponses JSON.
L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. Notez que le modèle ne génère pas de JSON sans message système ou utilisateur lui demandant de le faire.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Type de format de réponse défini. A toujours la valeur json_object.Valeurs possibles : json_object |
Oui |
OpenAI.TextResponseFormatConfigurationResponseFormatText
Format de réponse par défaut. Utilisé pour générer des réponses de texte.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Type de format de réponse défini. A toujours la valeur text.Valeurs possibles : text |
Oui |
OpenAI.TextResponseFormatConfigurationType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | textjson_schemajson_object |
OpenAI.TextResponseFormatJsonSchema
Format de réponse de schéma JSON. Utilisé pour générer des réponses JSON structurées. En savoir plus sur les sorties structurées.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| descriptif | ficelle | Description de l'utilisation du format de réponse par le modèle pour déterminer comment répondre selon le format. |
Non | |
| nom | ficelle | Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et tirets, avec une longueur maximale de 64. |
Oui | |
| schéma | OpenAI.ResponseFormatJsonSchemaSchema | Schéma du format de réponse, décrit en tant qu’objet de schéma JSON. Découvrez comment créer des schémas JSON ici. |
Oui | |
| strict | booléen ou null | Non | ||
| type | enum | Type de format de réponse défini. A toujours la valeur json_schema.Valeurs possibles : json_schema |
Oui |
OpenAI.ThreadObject
Représente un thread qui contient des messages.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| date_de_création | entier | L'horodatage Unix (en secondes) de la création du thread. | Oui | |
| id | ficelle | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Oui | |
| metadata | OpenAI.Metadata ou null | Oui | ||
| objet | enum | Le type d’objet, qui est toujours thread.Valeurs possibles : thread |
Oui | |
| tool_resources | OpenAI.ThreadObjectToolResources ou null | Oui |
OpenAI.ThreadObjectToolResources
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code_interpreter | OpenAI.ThreadObjectToolResourcesCodeInterpreter | Non | ||
| file_search | OpenAI.ThreadObjectToolResourcesFileSearch | Non |
OpenAI.ThreadObjectToolResourcesCodeInterpreter
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| identifiants_de_fichiers | tableau de chaînes | Non |
OpenAI.ThreadObjectToolResourcesFileSearch
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| vector_store_ids | tableau de chaînes | Non |
OpenAI.TokenLimits
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| post_instructions | entier | Contraintes : min : 0 | Non |
OpenAI.Tool
Outil qui peut être utilisé pour générer une réponse.
Discriminant pour OpenAI.Tool
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
code_interpreter |
OpenAI.CodeInterpreterTool |
function |
OpenAI.FunctionTool |
file_search |
OpenAI.FileSearchTool |
computer_use_preview |
OpenAI.ComputerUsePreviewTool |
web_search |
OpenAI.WebSearchTool |
mcp |
OpenAI.MCPTool |
image_generation |
OpenAI.ImageGenTool |
local_shell |
OpenAI.LocalShellToolParam |
shell |
OpenAI.FunctionShellToolParam |
custom |
OpenAI.CustomToolParam |
web_search_preview |
OpenAI.WebSearchPreviewTool |
apply_patch |
OpenAI.ApplyPatchToolParam |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.ToolType | Oui |
OpenAI.ToolChoiceAllowed
Limite les outils disponibles pour le modèle à un ensemble prédéfini.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| mode | enum | Limite les outils disponibles pour le modèle à un ensemble prédéfini.auto permet au modèle de choisir parmi les outils autorisés et de générer un. required nécessite que le modèle appelle un ou plusieurs des outils autorisés.Valeurs possibles : auto, required |
Oui | |
| outils | tableau d’objet | Liste des définitions d’outils que le modèle doit être autorisé à appeler. Pour l’API Réponses, la liste des définitions d’outils peut ressembler à ceci : json<br> [<br> { "type": "function", "name": "get_weather" },<br> { "type": "mcp", "server_label": "deepwiki" },<br> { "type": "image_generation" }<br> ]<br> |
Oui | |
| type | enum | Type de configuration d’outil autorisé. A toujours la valeur allowed_tools.Valeurs possibles : allowed_tools |
Oui |
OpenAI.ToolChoiceCodeInterpreter
Indique que le modèle doit utiliser un outil intégré pour générer une réponse. En savoir plus sur les outils intégrés.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Valeurs possibles : code_interpreter |
Oui |
OpenAI.ToolChoiceComputerUsePreview
Indique que le modèle doit utiliser un outil intégré pour générer une réponse. En savoir plus sur les outils intégrés.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Valeurs possibles : computer_use_preview |
Oui |
OpenAI.ToolChoiceCustom
Utilisez cette option pour forcer le modèle à appeler un outil personnalisé spécifique.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| nom | ficelle | Nom de l’outil personnalisé à appeler. | Oui | |
| type | enum | Pour les appels d’outils personnalisés, le type est toujours custom.Valeurs possibles : custom |
Oui |
OpenAI.ToolChoiceFileSearch
Indique que le modèle doit utiliser un outil intégré pour générer une réponse. En savoir plus sur les outils intégrés.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Valeurs possibles : file_search |
Oui |
OpenAI.ToolChoiceFunction
Utilisez cette option pour forcer le modèle à appeler une fonction spécifique.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| nom | ficelle | Nom de la fonction à appeler. | Oui | |
| type | enum | Pour l’appel de fonction, le type est toujours function.Valeurs possibles : function |
Oui |
OpenAI.ToolChoiceImageGeneration
Indique que le modèle doit utiliser un outil intégré pour générer une réponse. En savoir plus sur les outils intégrés.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Valeurs possibles : image_generation |
Oui |
OpenAI.ToolChoiceMCP
Utilisez cette option pour forcer le modèle à appeler un outil spécifique sur un serveur MCP distant.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| nom | chaîne ou nulle | Non | ||
| server_label | ficelle | Étiquette du serveur MCP à utiliser. | Oui | |
| type | enum | Pour les outils MCP, le type est toujours mcp.Valeurs possibles : mcp |
Oui |
OpenAI.ToolChoiceOptions
Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils.
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | noneautorequired |
OpenAI.ToolChoiceParam
Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler.
Discriminateur pour OpenAI.ToolChoiceParam
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
allowed_tools |
OpenAI.ToolChoiceAllowed |
mcp |
OpenAI.ToolChoiceMCP |
custom |
OpenAI.ToolChoiceCustom |
apply_patch |
OpenAI.SpecificApplyPatchParam |
shell |
OpenAI.SpecificFunctionShellParam |
file_search |
OpenAI.ToolChoiceFileSearch |
web_search_preview |
OpenAI.ToolChoiceWebSearchPreview |
computer_use_preview |
OpenAI.ToolChoiceComputerUsePreview |
web_search_preview_2025_03_11 |
OpenAI.ToolChoiceWebSearchPreview20250311 |
image_generation |
OpenAI.ToolChoiceImageGeneration |
code_interpreter |
OpenAI.ToolChoiceCodeInterpreter |
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | OpenAI.ToolChoiceParamType | Oui |
OpenAI.ToolChoiceParamType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | allowed_toolsfunctionmcpcustomapply_patchshellfile_searchweb_search_previewcomputer_use_previewweb_search_preview_2025_03_11image_generationcode_interpreter |
OpenAI.ToolChoiceWebSearchPreview
Remarque : web_search n’est pas encore disponible via Azure OpenAI.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Valeurs possibles : web_search_preview |
Oui |
OpenAI.ToolChoiceWebSearchPreview20250311
Indique que le modèle doit utiliser un outil intégré pour générer une réponse. En savoir plus sur les outils intégrés.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Valeurs possibles : web_search_preview_2025_03_11 |
Oui |
OpenAI.ToolType
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | functionfile_searchcomputer_use_previewweb_searchmcpcode_interpreterimage_generationlocal_shellshellcustomweb_search_previewapply_patch |
OpenAI.ToolsArray
Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.
Nous prenons en charge les catégories d’outils suivantes :
Outils intégrés : Outils fournis par OpenAI qui étendent les capacités du modèle, commeou fichier c2. En savoir plus sur outils intégrés. - Outils MCP : Intégrations à des systèmes tiers via des serveurs MCP personnalisés ou des connecteurs prédéfinis tels que Google Drive et SharePoint. En savoir plus sur MCP Tools.
- Appels de fonction (outils personnalisés) : fonctions définies par vous, permettant au modèle d’appeler votre propre code avec des arguments et des sorties fortement typés. En savoir plus sur l’appel de fonction. Vous pouvez également utiliser des outils personnalisés pour appeler votre propre code.
Tableau de : OpenAI.Tool
OpenAI.TopLogProb
Probabilité de journal supérieure d’un jeton.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| octets | tableau d’entiers | Oui | ||
| logprob | nombre | Oui | ||
| token | ficelle | Oui |
OpenAI.TranscriptionSegment
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| avg_logprob | nombre | Le logprob moyen pour le segment. Si la valeur est inférieure à -1, tenez compte de l’échec des logprobs. | Oui | |
| compression_ratio | nombre | Taux de compression du segment. Si la valeur est supérieure à 2,4, envisagez l’échec de la compression. | Oui | |
| fin | nombre | Heure de fin du segment en secondes. | Oui | |
| id | entier | Identificateur unique du segment. | Oui | |
| no_speech_prob | nombre | Probabilité d’absence de parole dans le segment. Si la valeur est supérieure à 1,0 et que la valeur avg_logprob est inférieure à -1, considérez ce segment comme silencieux. |
Oui | |
| seek | entier | Le décalage recherché du segment. | Oui | |
| start | nombre | Heure de début du segment en secondes. | Oui | |
| température | nombre | Paramètre de température utilisé pour générer le segment. | Oui | |
| texte | ficelle | Contenu texte du segment. | Oui | |
| tokens | tableau d’entiers | Groupe d’ID de jetons pour le contenu textuel. | Oui |
OpenAI.TranscriptionWord
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| fin | nombre | Heure de fin du mot, exprimée en secondes. | Oui | |
| start | nombre | Heure de début du mot, exprimée en secondes. | Oui | |
| word | ficelle | Contenu texte du mot. | Oui |
OpenAI.TruncationObject
Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| last_messages | entier ou null | Non | ||
| type | enum | La stratégie de troncation à utiliser pour le thread. La valeur par défaut est auto. Si la valeur est définie sur last_messages, le thread est tronqué sur les n messages les plus récents dans le thread. Lorsque la valeur est définie sur auto, les messages au milieu du thread sont supprimés pour ajuster la longueur du contexte du modèle, max_prompt_tokens.Valeurs possibles : auto, last_messages |
Oui |
OpenAI.Type
Une action pour saisir du texte.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Texte à taper. | Oui | |
| type | enum | Spécifie le type d’événement. Pour une action de saisie textuelle, cette propriété est toujours défini sur type.Valeurs possibles : type |
Oui |
OpenAI.UpdateConversationBody
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| metadata | OpenAI.Metadata ou null | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
Oui |
OpenAI.UpdateVectorStoreFileAttributesRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes ou null | Oui |
OpenAI.UpdateVectorStoreRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| expire_après | OpenAI.VectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | Non | |
| metadata | OpenAI.Metadata ou null | Non | ||
| nom | chaîne ou nulle | Le nom du magasin de vecteurs. | Non |
OpenAI.UrlCitationBody
Citation d’une ressource web utilisée pour générer une réponse de modèle.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| end_index | entier | Index du dernier caractère de la citation d’URL dans le message. | Oui | |
| start_index | entier | Index du premier caractère de la citation d’URL dans le message. | Oui | |
| title | ficelle | Titre de la ressource web. | Oui | |
| type | enum | Type de la citation d’URL. A toujours la valeur url_citation.Valeurs possibles : url_citation |
Oui | |
| url | ficelle | URL de la ressource web. | Oui |
OpenAI.ValidateGraderResponse
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| outil de notation | OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderPython ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint | Classe utilisée pour le travail de réglage précis. | Non |
OpenAI.VectorStoreExpirationAfter
La stratégie d’expiration d’un magasin de vecteurs.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| anchor | enum | Le timestamp d’ancre après lequel la stratégie d’expiration s’applique. Ancres prises en charge : last_active_at.Valeurs possibles : last_active_at |
Oui | |
| Jours | entier | Le nombre de jours après l’heure d’ancre correspondant à l’expiration du magasin de vecteurs. Contraintes : min : 1, max : 365 |
Oui |
OpenAI.VectorStoreFileAttributes
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes de caractères d'une longueur maximale de 512 caractères, des booléens ou des nombres.
Type : objet
OpenAI.VectorStoreFileBatchObject
Un lot de fichiers attaché à un magasin de vecteurs.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| date_de_création | entier | Le timestamp Unix (en secondes) lorsque le lot de fichiers de magasin de vecteurs a été créé. | Oui | |
| nombre_de_fichiers | OpenAI.VectorStoreFileBatchObjectFileCounts | Oui | ||
| id | ficelle | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Oui | |
| objet | enum | Le type d’objet, qui est toujours vector_store.file_batch.Valeurs possibles : vector_store.files_batch |
Oui | |
| status | enum | L’état du lot de fichiers de magasin de vecteurs, qui peut être in_progress, completed, cancelled ou failed.Valeurs possibles : in_progress, , completedcancelled,failed |
Oui | |
| vector_store_id | ficelle | ID du magasin de vecteurs auquel le fichier est attaché. | Oui |
OpenAI.VectorStoreFileBatchObjectFileCounts
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| cancelled | entier | Oui | ||
| terminé | entier | Oui | ||
| a échoué | entier | Oui | ||
| in_progress | entier | Oui | ||
| total | entier | Oui |
OpenAI.VectorStoreFileObject
Une liste de fichiers attachés à un magasin de vecteurs.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes ou null | Non | ||
| chunking_strategy | OpenAI.ChunkingStrategyResponse | Stratégie utilisée pour segmenter le fichier. | Non | |
| date_de_création | entier | Le timestamp Unix (en secondes) lorsque le fichier de magasin de vecteurs a été créé. | Oui | |
| id | ficelle | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Oui | |
| dernière_erreur | OpenAI.VectorStoreFileObjectLastError ou null | Oui | ||
| objet | enum | Le type d’objet, qui est toujours vector_store.file.Valeurs possibles : vector_store.file |
Oui | |
| status | enum | L’état du fichier de magasin de vecteurs, qui peut être in_progress, completed, cancelled ou failed. L’état completed indique que le fichier de magasin de vecteurs est prêt à être utilisé.Valeurs possibles : in_progress, , completedcancelled,failed |
Oui | |
| usage_bytes | entier | L’utilisation totale du magasin de vecteurs en octets. Notez qu’elle peut être différente de la taille du fichier d’origine. | Oui | |
| vector_store_id | ficelle | ID du magasin de vecteurs auquel le fichier est attaché. | Oui |
OpenAI.VectorStoreFileObjectLastError
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| code | enum | Valeurs possibles : server_error, , unsupported_fileinvalid_file |
Oui | |
| message | ficelle | Oui |
OpenAI.VectorStoreObject
Un magasin de vecteurs est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| date_de_création | entier | Le timestamp Unix (en secondes) lorsque le magasin de vecteurs a été créé. | Oui | |
| expire_après | OpenAI.VectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | Non | |
| expires_at | chaîne ou nulle | Non | ||
| nombre_de_fichiers | OpenAI.VectorStoreObjectFileCounts | Oui | ||
| id | ficelle | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Oui | |
| date_dernière_activité | chaîne ou nulle | Oui | ||
| metadata | OpenAI.Metadata ou null | Oui | ||
| nom | ficelle | Le nom du magasin de vecteurs. | Oui | |
| objet | enum | Le type d’objet, qui est toujours vector_store.Valeurs possibles : vector_store |
Oui | |
| status | enum | L’état du magasin de vecteurs, qui peut être expired, in_progress ou completed. L’état completed indique que le magasin de vecteurs est prêt à être utilisé.Valeurs possibles : expired, , in_progresscompleted |
Oui | |
| usage_bytes | entier | Le nombre total d’octets utilisés par les fichiers dans le magasin de vecteurs. | Oui |
OpenAI.VectorStoreObjectFileCounts
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| cancelled | entier | Oui | ||
| terminé | entier | Oui | ||
| a échoué | entier | Oui | ||
| in_progress | entier | Oui | ||
| total | entier | Oui |
OpenAI.VectorStoreSearchRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| filters | OpenAI.ComparisonFilter ou OpenAI.CompoundFilter | Filtre à appliquer en fonction des attributs de fichier. | Non | |
| nombre_maximal_de_résultats | entier | Le nombre maximal de résultats à renvoyer. Ce nombre doit être compris entre 1 et 50 inclus. Contraintes : min : 1, max : 50 |
Non | 10 |
| query | chaîne ou tableau de chaînes | Chaîne de requête pour une recherche | Oui | |
| options_de_classement | OpenAI.VectorStoreSearchRequestRankingOptions | Non | ||
| └─ classificateur | enum | Valeurs possibles : none, , autodefault-2024-11-15 |
Non | |
| └score_threshold | nombre | Contraintes : min : 0, max : 1 | Non | |
| rewrite_query | booléen | Indique s’il faut réécrire la requête en langage naturel pour la recherche vectorielle. | Non |
OpenAI.VectorStoreSearchRequestRankingOptions
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| ranker | enum | Valeurs possibles : none, , autodefault-2024-11-15 |
Non | |
| seuil de score | nombre | Contraintes : min : 0, max : 1 | Non |
OpenAI.VectorStoreSearchResultContentObject
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| texte | ficelle | Contenu texte retourné par la recherche. | Oui | |
| type | enum | Type de contenu. Valeurs possibles : text |
Oui |
OpenAI.VectorStoreSearchResultItem
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes ou null | Oui | ||
| contenu | tableau d’OpenAI.VectorStoreSearchResultContentObject | Blocs de contenu du fichier. | Oui | |
| identifiant_de_fichier | ficelle | ID du fichier de stockage de vecteurs. | Oui | |
| filename | ficelle | Nom du fichier de stockage de vecteurs. | Oui | |
| score | nombre | Score de similarité pour le résultat. Contraintes : min : 0, max : 1 |
Oui |
OpenAI.VectorStoreSearchResultsPage
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau d’OpenAI.VectorStoreSearchResultItem | Liste des éléments de résultat de recherche. | Oui | |
| has_more | booléen | Indique s’il y a plus de résultats à extraire. | Oui | |
| next_page | chaîne ou nulle | Oui | ||
| objet | enum | Type d’objet, qui est toujours vector_store.search_results.pageValeurs possibles : vector_store.search_results.page |
Oui | |
| search_query | tableau de chaînes | Oui |
OpenAI.Verbosity
Contraint la verbosité de la réponse du modèle. Des valeurs plus basses entraîneront des réponses plus concises, tandis que des valeurs plus élevées donneront des réponses plus verbeuses.
Les valeurs actuellement prises en charge sont low, medium et high.
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | lowmediumhigh |
OpenAI.VoiceIdsShared
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | alloyashballadcoralechosageshimmerversemarincedar |
OpenAI.Wait
Une action d'attente.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action d’attente, cette propriété est toujours défini sur wait.Valeurs possibles : wait |
Oui |
OpenAI.WebSearchActionFind
Type d’action « find » : recherche un modèle dans une page chargée.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| motif | ficelle | Modèle ou texte à rechercher dans la page. | Oui | |
| type | enum | Type d’action. Valeurs possibles : find_in_page |
Oui | |
| url | ficelle | URL de la page recherchée pour le modèle. | Oui |
OpenAI.WebSearchActionOpenPage
Type d’action « open_page » : ouvre une URL spécifique à partir des résultats de la recherche.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Type d’action. Valeurs possibles : open_page |
Oui | |
| url | ficelle | URL ouverte par le modèle. | Oui |
OpenAI.WebSearchActionSearch
Type d’action « search » : effectue une requête de recherche web.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| queries | tableau de chaînes | Requêtes de recherche. | Non | |
| query | chaîne (déconseillée) | [DÉCONSEILLÉ] Requête de recherche. | Oui | |
| Sources | tableau d’OpenAI.WebSearchActionSearchSources | Les sources utilisées dans la recherche. | Non | |
| type | enum | Type d’action. Valeurs possibles : search |
Oui |
OpenAI.WebSearchActionSearchSources
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| type | enum | Valeurs possibles : url |
Oui | |
| url | ficelle | Oui |
OpenAI.WebSearchApproximateLocation
L’emplacement approximatif de l’utilisateur.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| city | chaîne ou nulle | Non | ||
| country | chaîne ou nulle | Non | ||
| region | chaîne ou nulle | Non | ||
| timezone | chaîne ou nulle | Non | ||
| type | enum | Le type d’approximation de la localisation. A toujours la valeur approximate.Valeurs possibles : approximate |
Non |
OpenAI.WebSearchPreviewTool
Remarque : web_search n’est pas encore disponible via Azure OpenAI.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| taille_contexte_recherche | OpenAI.SearchContextSize | Non | ||
| type | enum | Type de l’outil de recherche web. Un de web_search_preview ou web_search_preview_2025_03_11.Valeurs possibles : web_search_preview |
Oui | |
| emplacement_utilisateur | OpenAI.ApproximateLocation ou null | Non |
OpenAI.WebSearchTool
Remarque : web_search n’est pas encore disponible via Azure OpenAI.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| filters | OpenAI.WebSearchToolFilters ou null | Non | ||
| taille_contexte_recherche | enum | Conseils de haut niveau pour la quantité d’espace de fenêtre contextuelle à utiliser pour la recherche. Valeurs possibles : low, medium ou high.
medium est la valeur par défaut.Valeurs possibles : low, , mediumhigh |
Non | |
| type | enum | Type de l’outil de recherche web. Un de web_search ou web_search_2025_08_26.Valeurs possibles : web_search |
Oui | |
| emplacement_utilisateur | OpenAI.WebSearchApproximateLocation ou null | Non |
OpenAI.WebSearchToolFilters
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| allowed_domains | tableau de chaînes ou null | Non |
Commande
| Propriété | Valeur |
|---|---|
| Type | ficelle |
| Valeurs | ascdesc |
ResponseFormatJSONSchemaRequest
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| json_schema | objet | Schéma JSON pour le format de réponse | Oui | |
| type | enum | Type de format de réponse Valeurs possibles : json_schema |
Oui |
SpeechGenerationResponse
Représentation d’une réponse pour une opération de synthèse vocale.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| audio | ficelle | Audio généré, généré au format de sortie audio demandé. | Oui |
SpeechGenerationResponseFormat
Les formats de sortie audio pris en charge pour la synthèse texte-parole.
Ce composant peut être l’un des éléments suivants :
- chaîne de caractères
-
chaîne :
mp3, ,opus,flacaac,wav,pcm
SpeechVoice
Voix disponibles pour la synthèse vocale.
| Propriété | Valeur |
|---|---|
| Description | Voix disponibles pour la synthèse vocale. |
| Type | ficelle |
| Valeurs | alloyechofableonyxnovashimmer |
VideoContent
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| contenu | ficelle | Oui |
VideoContentVariant
Variantes de ressources sélectionnables pour le contenu téléchargé.
| Propriété | Valeur |
|---|---|
| Description | Variantes de ressources sélectionnables pour le contenu téléchargé. |
| Type | ficelle |
| Valeurs | videothumbnailspritesheet |
VideoIdParameter
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| video-id | ficelle | ID de la vidéo à utiliser pour la requête Azure OpenAI. | Oui |
VideoList
Liste des travaux de génération vidéo.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| données | tableau de VideoResource | Liste des travaux de génération vidéo. | Oui | |
| premier_identifiant | ficelle | ID de la première vidéo de la page active, le cas échéant. | Non | |
| has_more | booléen | Indicateur indiquant s’il existe davantage de travaux disponibles après la liste. | Oui | |
| last_id | ficelle | ID de la dernière vidéo dans la page active, le cas échéant. | Non | |
| objet | enum | Valeurs possibles : list |
Oui |
VideoResource
Informations structurées décrivant un travail vidéo généré.
| Nom | Type | Descriptif | Obligatoire | Par défaut |
|---|---|---|---|---|
| terminé_à | entier | Horodatage Unix (secondes) pour le moment où le travail s’est terminé, s’il est terminé. | Non | |
| date_de_création | entier | Horodatage Unix (secondes) pour la création du travail. | Oui | |
| erreur | Error | Non | ||
| └─ Code | ficelle | Oui | ||
| └─ Message | ficelle | Oui | ||
| expires_at | entier | Horodatage Unix (secondes) pour l’expiration de la génération de vidéo (et sera supprimé). | Non | |
| id | ficelle | Identificateur unique du travail vidéo. | Oui | |
| modèle | ficelle | Déploiement du modèle de génération vidéo qui a produit le travail. | Oui | |
| objet | ficelle | Le type d’objet, qui est toujours video. |
Oui | |
| progrès | entier | Pourcentage d’achèvement approximatif pour la tâche de génération. | Oui | |
| remixed_from_video_id | ficelle | Identificateur de la vidéo source si cette vidéo est un remix. | Non | |
| secondes | VideoSeconds | Durées de clip prises en charge, mesurées en secondes. | Oui | |
| taille | VideoSize | Dimensions de sortie mises en forme en tant que {width}x{height}. |
Oui | |
| status | VideoStatus | État du cycle de vie d’une vidéo générée. | Oui |
VideoSeconds
Durées de clip prises en charge, mesurées en secondes.
| Propriété | Valeur |
|---|---|
| Description | Durées de clip prises en charge, mesurées en secondes. |
| Type | ficelle |
| Valeurs | 4812 |
VideoSize
Dimensions de sortie mises en forme en tant que {width}x{height}.
| Propriété | Valeur |
|---|---|
| Description | Dimensions de sortie mises en forme en tant que {width}x{height}. |
| Type | ficelle |
| Valeurs | 720x12801280x7201024x17921792x1024 |
VideoStatus
État du cycle de vie d’une vidéo générée.
| Propriété | Valeur |
|---|---|
| Description | État du cycle de vie d’une vidéo générée. |
| Type | ficelle |
| Valeurs | queuedin_progresscompletedfailed |