Informations de référence sur l’API REST Azure OpenAI Service
Cet article fournit des détails sur les points de terminaison API REST d’inférence pour Azure OpenAI.
Spécifications de l’API
La gestion et l’interaction avec les modèles et ressources Azure OpenAI sont réparties sur trois surfaces d’API principales :
- Plan de contrôle
- Plan de données – création
- Plan de données – inférence
Chaque surface/spécification de l’API encapsule un ensemble différent de fonctionnalités Azure OpenAI. Chaque API possède son propre ensemble unique de versions d’API en préversion et stables/en disponibilité générale (GA). Actuellement, les préversions ont tendance à suivre une cadence mensuelle.
API | Version de la dernière préversion | Dernière version en disponibilité générale | Spécifications | Description |
---|---|---|---|---|
Plan de contrôle | 2024-06-01-preview |
2024-10-01 |
Fichiers de spécifications | Azure OpenAI partage un plan de contrôle commun avec tous les autres Azure AI Services. L’API de plan de contrôle est utilisée pour des éléments tels que la création de ressources Azure OpenAI, modèles de déploiement et d’autres tâches de gestion des ressources de niveau supérieur. Le plan de contrôle régit également ce qui est possible avec les fonctionnalités telles qu’Azure Resource Manager, Bicep, Terraform et Azure CLI. |
Plan de données – création | 2024-10-01-preview |
2024-10-21 |
Fichiers de spécifications | L’API de création de plan de données contrôle le réglage, le chargement de fichiers, les travaux d’ingestion, le traitement et certaines requêtes au niveau du modèle |
Plan de données – inférence | 2024-10-01-preview |
2024-10-21 |
Fichiers de spécifications | L’API d’inférence de plan de données fournit les fonctionnalités/points de terminaison d’inférence pour les fonctionnalités telles que les achèvements, les achèvements de conversation, les incorporations, la voix ou le chuchotement sur vos données, Dall-e, assistants, etc. |
Authentification
Azure OpenAI offre deux méthodes d’authentification. Vous pouvez utiliser des clés API ou Microsoft Entra ID.
Authentification par clé API : pour ce type d’authentification, toutes les requêtes d’API doivent inclure la clé API dans l’en-tête HTTP
api-key
. Le Démarrage rapide fournit des conseils sur la façon d’effectuer des appels avec ce type d’authentification.Authentification Microsoft Entra ID : Vous pouvez authentifier un appel d’API à l’aide d’un jeton Microsoft Entra. Les jetons d’authentification sont incluses dans une requête sous la forme de l’en-tête
Authorization
. Le jeton fourni doit être précédé deBearer
. Par exemple :Bearer YOUR_AUTH_TOKEN
. Vous pouvez lire notre guide pratique sur Authentification avec Microsoft Entra ID.
Gestion des versions d’API
Les API de service sont versionnées à l’aide du paramètre de requête api-version
. Toutes les versions suivent la structure de date AAAA-MM-JJ. Par exemple :
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inférence de plan de données
Le reste de l’article couvre la dernière version en préversion de la spécification d’inférence de plan de données Azure OpenAI, 2024-10-01-preview
. Cet article inclut la documentation relative aux dernières fonctionnalités de la préversion telles que les assistants, les threads et les magasins de vecteurs.
Si vous recherchez de la documentation sur la dernière version de l’API en disponibilité générale, reportez-vous à la dernière API d’inférence de plan de données en disponibilité générale
Achèvements – Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview
Crée un achèvement pour le prompt fourni, les paramètres et le modèle choisi.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
id-de-déploiement | path | Oui | string | ID de déploiement du modèle qui a été déployé. |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
prompt | chaîne ou tableau | Prompt ou prompts pour lesquels il faut générer des complétions, avec encodage sous forme de chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons. Notez que <|endoftext|> est le séparateur de documents que le modèle voit lors de la formation. Par conséquent, si un prompt n’est pas spécifié, le modèle est généré comme s’il s’agissait du début d’un nouveau document. |
Oui | |
best_of | entier | Génère des complétions best_of côté serveur et retourne la « meilleure » (celle avec la probabilité logarithmique la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.Quand il est utilisé avec n , best_of contrôle le nombre de complétions candidates, et n spécifie le nombre de retours. best_of doit être supérieur à n .Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop . |
Non | 1 |
echo | booléen | Renvoyer l’invite en plus de l’achèvement |
Non | False |
frequency_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. |
Non | 0 |
logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le générateur de jetons GPT) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du jeton <|endoftext|>. |
Non | Aucune |
logprobs | entier | Inclut les probabilités logarithmiques sur les jetons de sortie logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est égal à 5, l’API retourne une liste des 5 jetons les plus probables. L’API retournant toujours le logprob du jeton échantillonné, il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse.La valeur maximale de logprobs est 5. |
Non | Aucune |
max_tokens | entier | Nombre maximal de jetons pouvant être générés dans la complétion. Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle. |
Non | 16 |
n | entier | Nombre d’achèvements à générer pour chaque invite. Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop . |
Non | 1 |
presence_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. |
Non | 0 |
seed | entier | S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. |
Non | |
stop | chaîne ou tableau | Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt. |
Non | |
flux | booléen | Indique s’il faut renvoyer la progression partielle. S’ils sont définis, les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE] . |
Non | False |
suffix | string | Suffixe qui vient après l’achèvement d’un texte inséré. Ce paramètre est uniquement pris en charge pour gpt-3.5-turbo-instruct . |
Non | Aucune |
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
Non | 1 |
utilisateur | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. |
Non |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | createCompletionResponse | Représente une réponse de complétion de l’API. Remarque : les objets de réponse diffusés en continu et non diffusés en continu partagent la même forme (contrairement au point de terminaison de conversation). |
Code d’état : par défaut
Description : Service non disponible
Content-Type | Type | Description |
---|---|---|
application/json | errorResponse |
Exemples
Exemple
Crée un achèvement pour le prompt fourni, les paramètres et le modèle choisi.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Réponses : Code d’état : 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Incorporations – Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview
Obtenez une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par des modèles et des algorithmes Machine Learning.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
id-de-déploiement | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
input | chaîne ou tableau | Texte d’entrée à incorporer, encodé en tant que chaîne ou tableau de jetons. Pour incorporer plusieurs entrées dans une seule requête, transmettez un tableau de chaînes ou de tableaux de jetons. L’entrée ne doit pas dépasser le nombre maximal de jetons d’entrée pour le modèle (8 192 jetons pour text-embedding-ada-002 ), ne peut pas être une chaîne vide et un tableau doit avoir un nombre de dimensions inférieur ou égal à 2 048. |
Oui | |
utilisateur | string | Un identificateur unique représentant votre utilisateur final, qui peut vous aider à surveiller et à détecter des abus. | Non | |
input_type | string | type d’entrée de la recherche d’incorporation à utiliser | Non | |
encoding_format | string | Format dans lequel retourner les incorporations. La valeur peut être float ou base64 . La valeur par défaut est float . |
Non | |
dimensions | entier | Nombre de dimensions que les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs. |
Non |
Réponses
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
object | string | Oui | ||
modèle | string | Oui | ||
données | tableau | Oui | ||
utilisation | object | Oui |
Propriétés pour l’utilisation
prompt_tokens
Nom | Type | Description | Default |
---|---|---|---|
prompt_tokens | entier |
total_tokens
Nom | Type | Description | Default |
---|---|---|---|
total_tokens | entier |
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | object |
Exemples
Exemple
Retourne les incorporations pour une invite donnée.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview
{
"input": [
"this is a test"
]
}
Réponses : Code d’état : 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05,
0.0032178196
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Achèvements de conversation – Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
Crée un achèvement pour le message de conversation
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
id-de-déploiement | path | Oui | string | ID de déploiement du modèle qui a été déployé. |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
Non | 1 |
flux | booléen | Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE] . |
Non | False |
stop | chaîne ou tableau | Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons. |
Non | |
max_tokens | entier | Nombre maximal de jetons pouvant être générés dans la complétion de conversation. La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle. |
Non | |
max_completion_tokens | entier | Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. Elle est uniquement prise en charge dans les modèles de série o1. Expansion de la prise en charge d’autres modèles dans une future version d’API. | Non | |
presence_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. |
Non | 0 |
frequency_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. |
Non | 0 |
logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. |
Non | Aucune |
utilisateur | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. |
Non | |
Cloud vers appareil | tableau | Liste des messages comprenant la conversation jusqu’ici. | Oui | |
data_sources | tableau | Les entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent. Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI. |
Non | |
logprobs | booléen | Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le content de message . |
Non | False |
top_logprobs | entier | Entier compris entre 0 et 20 spécifiant le nombre des jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. logprobs devez être défini sur true si ce paramètre est utilisé. |
Non | |
n | entier | Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés pour tous les choix. Gardez n défini sur 1 pour minimiser les coûts. |
Non | 1 |
parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | Non | True |
response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Objet spécifiant le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106 .Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni.Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length" , ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non | |
seed | entier | Cette fonctionnalité est en version bêta. S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. |
Non | |
stream_options | chatCompletionStreamOptions | Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true . |
Non | Aucune |
outils | tableau | Liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option afin de fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge. |
Non | |
tool_choice | chatCompletionToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère un message à la place. auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si des outils sont présents. |
Non | |
function_call | chaîne ou chatCompletionFunctionCallOption | Déconseillé en faveur de tool_choice .Contrôle la fonction (le cas échéant) appelée par le modèle. none signifie que le modèle n’appelle pas de fonction et génère un message à la place.auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.none est la valeur par défaut lorsqu’aucune fonction n’est présente. auto est la valeur par défaut si des fonctions sont présentes. |
Non | |
functions | tableau | Déconseillé en faveur de tools .Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. |
Non |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | createChatCompletionResponse ou createChatCompletionStreamResponse |
Code d’état : par défaut
Description : Service non disponible
Content-Type | Type | Description |
---|---|---|
application/json | errorResponse |
Exemples
Exemple
Crée un achèvement pour le prompt fourni, les paramètres et le modèle choisi.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemple
Crée un achèvement basé sur les données Recherche Azure et l’identité managée affectée par le système.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemple
Crée un achèvement basé sur les données de vecteur d’image Recherche Azure.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemple
Crée un achèvement basé sur les données vectorielles Recherche Azure, le message précédent de l’Assistant et l’identité managée affectée par l’utilisateur(-trice).
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemple
Crée un achèvement pour l’index Azure Cosmos DB fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemple
Crée une complétion pour la base de données Mongo fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemple
Crée un achèvement pour l’index Elasticsearch fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemple
Crée un achèvement pour la ressource Pinecone fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcriptions – Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
Transcrit l’audio dans la langue d’entrée.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
id-de-déploiement | path | Oui | string | ID de déploiement du modèle chuchoteur. |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type : multipart/form-data
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
file | string | L’objet de fichier audio à transcrire. | Oui | |
prompt | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. | Non | |
response_format | audioResponseFormat | Définit le format de la sortie. | Non | |
température | nombre | Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | Non | 0 |
langage | string | La langue de l’audio d’entrée. Donner la langue d’entrée au format ISO-639-1 améliore la précision et la latence. | Non | |
timestamp_granularities[] | tableau | Les granularités d’horodatage à remplir pour cette transcription. response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : word ou segment . Remarque : il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. |
Non | ['segment'] |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | audioResponse ou audioVerboseResponse | |
text/plain | string | Texte transcrit au format de sortie (lorsque response_format était text, vtt ou srt). |
Exemples
Exemple
Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemple
Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code d’état : 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traductions – Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
Transcrit et traduit l’audio d’entrée en texte anglais.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
id-de-déploiement | path | Oui | string | ID de déploiement du modèle chuchoteur qui a été déployé. |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type : multipart/form-data
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
file | string | Le fichier audio à traduire. | Oui | |
prompt | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Le prompt doit être en anglais. | Non | |
response_format | audioResponseFormat | Définit le format de la sortie. | Non | |
température | nombre | Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | Non | 0 |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | audioResponse ou audioVerboseResponse | |
text/plain | string | Texte transcrit au format de sortie (lorsque response_format était text, vtt ou srt). |
Exemples
Exemple
Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code d’état : 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemple
Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code d’état : 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Voix – Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview
Génère de l’audio à partir du texte d’entrée.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
id-de-déploiement | path | Oui | string | ID de déploiement du modèle tts qui a été déployé. |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type : multipart/form-data
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
entrée | string | Le texte pour lequel synthétiser l’audio. La longueur maximale est de 4 096 caractères. | Oui | |
voice | enum | La voix à utiliser pour la synthèse vocale. Valeurs possibles : alloy, echo, fable, onyx, nova, shimmer |
Oui | |
response_format | enum | Le format dans lequel synthétiser l’audio. Valeurs possibles : mp3, opus, aac, flac, wav, pcm |
Non | |
speed | nombre | La vitesse de l’audio synthétisé. Sélectionnez une valeur entre 0.25 et 4.0 . 1.0 est la valeur par défaut. |
Non | 1.0 |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/octet-stream | string |
Exemples
Exemple
Synthétise l’audio à partir du texte fourni.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Réponses : Code d’état : 200
{
"body": "101010101"
}
Générations d’images – Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview
Génère un lot d’images à partir d’une légende de texte sur un modèle de déploiement DALLE donné
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
id-de-déploiement | path | Oui | string | ID de déploiement du modèle dalle qui a été déployé. |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 4 000 caractères. | Oui | |
n | entier | Nombre d’images à générer. | Non | 1 |
size | imageSize | Taille des images générées. | Non | 1024 x 1024 |
response_format | imagesResponseFormat | Format dans lequel les images générées sont retournées. | Non | url |
utilisateur | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. | Non | |
des données | imageQuality | La qualité de l’image qui sera générée. | Non | standard |
style | imageStyle | Le style des images générées. | Non | vivid |
Réponses
Code d’état : 200
Description : Ok
Content-Type | Type | Description |
---|---|---|
application/json | generateImagesResponse |
Code d’état : par défaut
Description : Désolé, une erreur s’est produite.
Content-Type | Type | Description |
---|---|---|
application/json | dalleErrorResponse |
Exemples
Exemple
Crée des images en fonction d’un prompt donné.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Réponses : Code d’état : 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Répertorier – Assistants
GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Retourne une liste d’Assistants.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
limit | query | Non | entier | |
order | query | Non | string | |
after | query | Non | string | |
before | query | Non | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | listAssistantsResponse |
Exemples
Exemple
Retourne une liste d’Assistants.
GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Créer – Assistant
POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Créez un assistant avec un modèle et des instructions.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
modèle | Oui | |||
name | chaîne | Nom de l’assistant. La longueur maximale est de 256 caractères. |
Non | |
description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
Non | |
détaillées | string | Instructions système utilisées par l’assistant. La longueur maximale est de 256 000 caractères. |
Non | |
tools | tableau | Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter , retrieval ou function . |
Non | [] |
tool_resources | object | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non | |
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
Non | 1 |
response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106 .Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length" , ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non |
Propriétés de tool_resources
code_interpreter
Nom | Type | Description | Default |
---|---|---|---|
file_ids | tableau | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
[] |
file_search
Nom | Type | Description | Default |
---|---|---|---|
vector_store_ids | tableau | Le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un magasin de vecteurs au maximum attaché à l’assistant. |
|
vector_stores | tableau | Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à cet Assistant. Il peut y avoir un magasin de vecteurs au maximum attaché à l’assistant. |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | assistantObject | Représente un assistant qui peut appeler le modèle et utiliser des outils. |
Exemples
Exemple
Créez un assistant avec un modèle et des instructions.
POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Réponses : Code d’état : 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Obtenir – Assistant
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Récupère un assistant.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
assistant_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | assistantObject | Représente un assistant qui peut appeler le modèle et utiliser des outils. |
Exemples
Exemple
Récupère un assistant.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modifier – Assistant
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Modifie un assistant.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
assistant_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
modèle | Non | |||
nom | chaîne | Nom de l’assistant. La longueur maximale est de 256 caractères. |
Non | |
description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
Non | |
détaillées | string | Instructions système utilisées par l’assistant. La longueur maximale est de 32 768 caractères. |
Non | |
tools | tableau | Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter , retrieval ou function . |
Non | [] |
tool_resources | object | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non | |
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
Non | 1 |
response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106 .Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length" , ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non |
Propriétés de tool_resources
code_interpreter
Nom | Type | Description | Default |
---|---|---|---|
file_ids | tableau | Remplace la liste des ID de fichiers mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
[] |
file_search
Nom | Type | Description | Default |
---|---|---|---|
vector_store_ids | tableau | Remplace le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un magasin de vecteurs au maximum attaché à l’assistant. |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | assistantObject | Représente un assistant qui peut appeler le modèle et utiliser des outils. |
Exemples
Exemple
Modifie un assistant.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Réponses : Code d’état : 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Supprimer – Assistant
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Supprimez un assistant.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
assistant_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | deleteAssistantResponse |
Exemples
Exemple
Supprime un Assistant.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Créer – Thread
POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview
Créez un fil de discussion.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
Cloud vers appareil | tableau | Une liste de messages avec lesquels démarrer le fil de discussion. | Non | |
tool_resources | object | Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non |
Propriétés de tool_resources
code_interpreter
Nom | Type | Description | Default |
---|---|---|---|
file_ids | tableau | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
[] |
file_search
Nom | Type | Description | Default |
---|---|---|---|
vector_store_ids | tableau | Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread. |
|
vector_stores | tableau | Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread. |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | threadObject | Représente un thread qui contient des messages. |
Exemples
Exemple
Crée un thread.
POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Obtenir – Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Récupère un thread.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | threadObject | Représente un thread qui contient des messages. |
Exemples
Exemple
Récupère un thread.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modifier – Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Modifie un thread.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
tool_resources | object | Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non |
Propriétés de tool_resources
code_interpreter
Nom | Type | Description | Default |
---|---|---|---|
file_ids | tableau | Une liste des ID de fichiers mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
[] |
file_search
Nom | Type | Description | Default |
---|---|---|---|
vector_store_ids | tableau | Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread. |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | threadObject | Représente un thread qui contient des messages. |
Exemples
Exemple
Modifie un thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Réponses : Code d’état : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Supprimer – Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Supprimez un thread.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | deleteThreadResponse |
Exemples
Exemple
Supprime un fil.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Répertorier – Messages
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Retourne une liste de messages pour un thread donné.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
limit | query | Non | entier | |
order | query | Non | string | |
after | query | Non | string | |
before | query | Non | string | |
run_id | query | Non | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | listMessagesResponse |
Exemples
Exemple
Répertorier les messages
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Créer – Message
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Créer un message.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
role | string | Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes : - user : indique l’envoi du message par un utilisateur réel, doit être utilisé dans la plupart des cas pour représenter des messages générés par l’utilisateur.- assistant : indique la génération du message par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation. |
Oui | |
content | string | Contenu du message. | Oui | |
attachments | tableau | Une liste des fichiers attachés au message et des outils auxquels ils doivent être ajoutés. | Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | messageObject | Représente un message dans un thread. |
Exemples
Exemple
Créer un message.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Réponses : Code d’état : 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Obtenir – Message
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Récupérez un message.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
message_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | messageObject | Représente un message dans un thread. |
Exemples
Exemple
Récupérez un message.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modifier – Message
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Modifie un message.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
message_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | messageObject | Représente un message dans un thread. |
Exemples
Exemple
Modifiez un message.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Réponses : Code d’état : 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Créer – Thread et exécution
POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview
Créez un thread et exécutez-le dans une seule requête.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
assistant_id | string | ID de l’assistant à utiliser pour cette exécution. | Oui | |
thread | createThreadRequest | Non | ||
modèle | string | Nom de déploiement du modèle à utiliser pour cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | Non | |
détaillées | string | Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
tools | tableau | Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
tool_resources | object | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non | |
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
Non | 1 |
flux | booléen | Si true , retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE] . |
Non | |
stream_options | chatCompletionStreamOptions | Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true . |
Non | Aucune |
max_prompt_tokens | entier | Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete . Pour plus d'informations, consultez incomplete_details . |
Non | |
max_completion_tokens | entier | Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete . Pour plus d'informations, consultez incomplete_details . |
Non | |
truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | Non | |
tool_choice | assistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère un message à la place.auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
Non | |
parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | Non | True |
response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106 .Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length" , ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non |
Propriétés de tool_resources
code_interpreter
Nom | Type | Description | Default |
---|---|---|---|
file_ids | tableau | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
[] |
file_search
Nom | Type | Description | Default |
---|---|---|---|
vector_store_ids | tableau | L’ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un magasin de vecteurs au maximum attaché à l’assistant. |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | runObject | Représente une exécution sur un thread. |
Exemples
Exemple
Créez un thread et exécutez-le dans une seule requête.
POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Réponses : Code d’état : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Répertorier – Exécutions
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Retourne une liste d’exécutions appartenant à un thread.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
limit | query | Non | entier | |
order | query | Non | string | |
after | query | Non | string | |
before | query | Non | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | listRunsResponse |
Exemples
Exemple
Retourne une liste d’exécutions appartenant à un thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Créer – Exécution
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Créer une exécution.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
assistant_id | string | ID de l’assistant à utiliser pour cette exécution. | Oui | |
modèle | string | L’ID du modèle à utiliser pour lancer cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | Non | |
détaillées | string | Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
additional_instructions | string | Ajoute des instructions supplémentaires à la fin des instructions de l’exécution. Cela est utile pour modifier le comportement lors de chaque exécution sans remplacer d’autres instructions. | Non | |
additional_messages | tableau | Ajoute des messages supplémentaires au thread avant de créer l’exécution. | Non | |
tools | tableau | Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non | |
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
Non | 1 |
flux | booléen | Si true , retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE] . |
Non | |
max_prompt_tokens | entier | Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete . Pour plus d'informations, consultez incomplete_details . |
Non | |
max_completion_tokens | entier | Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete . Pour plus d'informations, consultez incomplete_details . |
Non | |
truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | Non | |
tool_choice | assistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère un message à la place.auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
Non | |
parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | Non | True |
response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106 .Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length" , ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | runObject | Représente une exécution sur un thread. |
Exemples
Exemple
Créer une exécution.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
{
"assistant_id": "asst_abc123"
}
Réponses : Code d’état : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Obtenir – Exécution
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Récupère une exécution.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
run_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | runObject | Représente une exécution sur un thread. |
Exemples
Exemple
Obtient une exécution.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modifier – Exécution
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Modifie une exécution.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
run_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | runObject | Représente une exécution sur un thread. |
Exemples
Exemple
Modifie une exécution.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Réponses : Code d’état : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Envoyer – Sorties d’outil à exécuter
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview
Lorsqu’une exécution a status: "requires_action"
et required_action.type
est submit_tool_outputs
, ce point de terminaison peut être utilisé pour envoyer les sorties à partir des appels d’outil une fois qu’elles sont toutes terminées. Toutes les sorties doivent être envoyées dans une seule requête.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
run_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
tool_outputs | tableau | Liste des outils pour lesquels les sorties sont envoyées. | Oui | |
flux | booléen | Si true , retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE] . |
Non |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | runObject | Représente une exécution sur un thread. |
Exemples
Exemple
Lorsqu’une exécution a status: "requires_action"
et required_action.type
est submit_tool_outputs
, ce point de terminaison peut être utilisé pour envoyer les sorties à partir des appels d’outil une fois qu’elles sont toutes terminées. Toutes les sorties doivent être envoyées dans une seule requête.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Annuler – Exécution
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview
Annule une exécution qui est in_progress
.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
run_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | runObject | Représente une exécution sur un thread. |
Exemples
Exemple
Annule une exécution qui est in_progress
.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Répertorier – Étapes d’exécution
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview
Retourne une liste des étapes d’exécution appartenant à une exécution.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
run_id | path | Oui | string | |
limit | query | Non | entier | |
order | query | Non | string | |
after | query | Non | string | |
before | query | Non | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | listRunStepsResponse |
Exemples
Exemple
Retourne une liste des étapes d’exécution appartenant à une exécution.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Obtenir – Étape d’exécution
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview
Récupère une étape d’exécution.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
thread_id | path | Oui | string | |
run_id | path | Oui | string | |
step_id | path | Oui | string | |
api-version | query | Oui | string | Version de l'API |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | runStepObject | Représente une étape dans une exécution. |
Exemples
Exemple
Récupère une étape d’exécution.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Répertorier – Magasins de vecteurs
GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Retourne une liste de magasins de vecteurs.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
limit | query | Non | entier | |
order | query | Non | string | |
after | query | Non | string | |
before | query | Non | string | |
api-version | query | Oui | string |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | listVectorStoresResponse |
Exemples
Exemple
Retourne une liste de magasins de vecteurs.
GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Créer – Magasin de vecteurs
POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Créez un magasin de vecteurs.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
api-version | query | Oui | string |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
file_ids | tableau | Une liste des ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
Non | |
nom | chaîne | Le nom du magasin de vecteurs. | Non | |
expires_after | vectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | Non | |
chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto . Uniquement applicable si le file_ids n’est pas vide. |
Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | vectorStoreObject | Un magasin de vecteurs est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search . |
Exemples
Exemple
Crée un magasin de vecteurs.
POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Obtenir – Magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Récupère un magasin de vecteurs.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
vector_store_id | path | Oui | string | |
api-version | query | Oui | string |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | vectorStoreObject | Un magasin de vecteurs est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search . |
Exemples
Exemple
Récupère un magasin de vecteurs.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modifier – Magasin de vecteurs
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Modifie un magasin de vecteurs.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
vector_store_id | path | Oui | string | |
api-version | query | Oui | string |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
name | chaîne | Le nom du magasin de vecteurs. | Non | |
expires_after | vectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | vectorStoreObject | Un magasin de vecteurs est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search . |
Exemples
Exemple
Modifie un magasin de vecteurs.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
{
"name": "Support FAQ"
}
Réponses : Code d’état : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Supprimer – Magasin de vecteurs
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Supprimez un magasin de vecteurs.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
vector_store_id | path | Oui | string | |
api-version | query | Oui | string |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | deleteVectorStoreResponse |
Exemples
Exemple
Supprime un magasin de vecteurs.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Répertorier – Fichiers de magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Retourne une liste de fichiers de magasin de vecteurs.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
vector_store_id | path | Oui | string | |
limit | query | Non | entier | |
order | query | Non | string | |
after | query | Non | string | |
before | query | Non | string | |
filter | query | Non | string | |
api-version | query | Oui | string |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | listVectorStoreFilesResponse |
Exemples
Exemple
Retourne une liste de fichiers de magasin de vecteurs.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Créer – Fichier de magasin de vecteurs
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin de vecteurs.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
vector_store_id | path | Oui | string | |
api-version | query | Oui | string |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
file_id | string | Un ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
Oui | |
chunking_strategy | chunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto . |
Non |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | vectorStoreFileObject | Une liste de fichiers attachés à un magasin de vecteurs. |
Exemples
Exemple
Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin de vecteurs.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
{
"file_id": "file-abc123"
}
Réponses : Code d’état : 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Obtenir – Fichier de magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Récupère un fichier de magasin de vecteurs.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
vector_store_id | path | Oui | string | |
file_id | path | Oui | string | |
api-version | query | Oui | string |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | vectorStoreFileObject | Une liste de fichiers attachés à un magasin de vecteurs. |
Exemples
Exemple
Récupère un fichier de magasin de vecteurs.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Supprimer – Fichier de magasin de vecteurs
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin de vecteurs, mais le fichier lui-même n’est pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de suppression de fichier.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
vector_store_id | path | Oui | string | |
file_id | path | Oui | string | |
api-version | query | Oui | string |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | deleteVectorStoreFileResponse |
Exemples
Exemple
Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin de vecteurs, mais le fichier lui-même n’est pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de suppression de fichier.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Créer – Lot de fichiers de magasin de vecteurs
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview
Créez un lot de fichiers de magasin de vecteurs.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
vector_store_id | path | Oui | string | |
api-version | query | Oui | string |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la demande
Content-Type: application/json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
file_ids | tableau | Une liste d’ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
Oui | |
chunking_strategy | chunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto . |
Non |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | vectorStoreFileBatchObject | Un lot de fichiers attaché à un magasin de vecteurs. |
Exemples
Exemple
Créez un lot de fichiers de magasin de vecteurs.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Réponses : Code d’état : 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Obtenir – Lot de fichiers de magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview
Récupère un lot de fichiers de magasin de vecteurs.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
vector_store_id | path | Oui | string | |
batch_id | path | Oui | string | |
api-version | query | Oui | string |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | vectorStoreFileBatchObject | Un lot de fichiers attaché à un magasin de vecteurs. |
Exemples
Exemple
Récupère un lot de fichiers de magasin de vecteurs.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Annuler – Lot de fichiers du magasin de vecteurs
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview
Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
vector_store_id | path | Oui | string | |
batch_id | path | Oui | string | |
api-version | query | Oui | string |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | vectorStoreFileBatchObject | Un lot de fichiers attaché à un magasin de vecteurs. |
Exemples
Exemple
Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Répertorier – Fichiers de lot de fichiers de magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview
Retourne une liste de fichiers de magasin de vecteurs dans un lot.
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint | path | Oui | string url |
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com . Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com |
vector_store_id | path | Oui | string | |
batch_id | path | Oui | string | |
limit | query | Non | entier | |
order | query | Non | string | |
after | query | Non | string | |
before | query | Non | string | |
filter | query | Non | string | |
api-version | query | Oui | string |
En-tête de requête
Nom | Requise | Type | Description |
---|---|---|---|
api-key | True | string | Fournir une clé API Azure OpenAI ici |
Réponses
Code d’état : 200
Description : OK
Content-Type | Type | Description |
---|---|---|
application/json | listVectorStoreFilesResponse |
Exemples
Exemple
Retourne une liste de fichiers de magasin de vecteurs.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Composants
errorResponse
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
error | error | Non |
errorBase
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
code | string | Non | ||
message | string | Non |
error
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
param | string | Non | ||
type | string | Non | ||
inner_error | innerError | Erreur interne avec des détails supplémentaires. | Non |
innerError
Erreur interne avec des détails supplémentaires.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
code | innerErrorCode | Codes d’erreur pour l’objet d’erreur interne. | Non | |
content_filter_results | contentFilterPromptResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. | Non |
innerErrorCode
Codes d’erreur pour l’objet d’erreur interne.
Description : codes d’erreur pour l’objet d’erreur interne.
Type : string
Par défaut :
Nom de l’énumération : InnerErrorCode
Valeurs d’énumération :
Valeur | Description |
---|---|
ResponsibleAIPolicyViolation | Le prompt a enfreint une ou plusieurs règles de filtrage de contenu. |
dalleErrorResponse
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
error | dalleError | Non |
dalleError
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
param | string | Non | ||
type | string | Non | ||
inner_error | dalleInnerError | Erreur interne avec des détails supplémentaires. | Non |
dalleInnerError
Erreur interne avec des détails supplémentaires.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
code | innerErrorCode | Codes d’erreur pour l’objet d’erreur interne. | Non | |
content_filter_results | dalleFilterResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. | Non | |
revised_prompt | string | Le prompt utilisé pour générer l’image, s’il y a eu une révision de l’invite. | Non |
contentFilterCompletionTextSpan
Permet de décrire une étendue dans le texte de saisie semi-automatique générée. Le décalage 0 est le premier code de caractère UTF32 du texte de saisie semi-automatique.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
completion_start_offset | entier | Décalage du code de caractère UTF32 qui commence l’étendue. | Oui | |
completion_end_offset | entier | Décalage du premier code de caractère UTF32 exclu de l’étendue. Ce champ est toujours égal à completion_start_offset pour les étendues vides. Ce champ est toujours plus grand que completion_start_offset pour les étendues non vides. | Oui |
contentFilterResultBase
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
filtered | booléen | Oui |
contentFilterSeverityResult
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
filtered | booléen | Oui | ||
gravité | string | Non |
contentFilterDetectedResult
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
filtered | booléen | Oui | ||
détecté | booléen | Non |
contentFilterDetectedWithCitationResult
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
citation | object | Non |
Propriétés de la citation
URL
Nom | Type | Description | Default |
---|---|---|---|
URL | string |
license
Nom | Type | Description | Default |
---|---|---|---|
licence | string |
contentFilterDetectedWithCompletionTextSpansResult
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
details | tableau | Non |
contentFilterIdResult
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
filtered | booléen | Oui | ||
id | string | Non |
contentFilterResultsBase
Informations sur les résultats du filtrage de contenu.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
sexuel | contentFilterSeverityResult | Non | ||
violence | contentFilterSeverityResult | Non | ||
haine | contentFilterSeverityResult | Non | ||
self_harm | contentFilterSeverityResult | Non | ||
profanité | contentFilterDetectedResult | Non | ||
custom_blocklists | contentFilterDetailedResults | Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. | Non | |
error | errorBase | Non |
contentFilterPromptResults
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
sexuel | contentFilterSeverityResult | Non | ||
violence | contentFilterSeverityResult | Non | ||
haine | contentFilterSeverityResult | Non | ||
self_harm | contentFilterSeverityResult | Non | ||
profanité | contentFilterDetectedResult | Non | ||
custom_blocklists | contentFilterDetailedResults | Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. | Non | |
error | errorBase | Non | ||
jailbreak | contentFilterDetectedResult | Non | ||
indirect_attack | contentFilterDetectedResult | Non |
contentFilterChoiceResults
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, automutilation), s’il a été détecté, ainsi que le niveau de gravité (une échelle très faible, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le texte et la profanité tiers, s’il a été détecté et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
sexuel | contentFilterSeverityResult | Non | ||
violence | contentFilterSeverityResult | Non | ||
haine | contentFilterSeverityResult | Non | ||
self_harm | contentFilterSeverityResult | Non | ||
profanité | contentFilterDetectedResult | Non | ||
custom_blocklists | contentFilterDetailedResults | Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. | Non | |
error | errorBase | Non | ||
protected_material_text | contentFilterDetectedResult | Non | ||
protected_material_code | contentFilterDetectedWithCitationResult | Non | ||
ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | Non |
contentFilterDetailedResults
Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
filtered | booléen | Oui | ||
details | tableau | Non |
promptFilterResult
Résultats du filtrage de contenu pour un seul prompt dans la requête.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
prompt_index | entier | Non | ||
content_filter_results | contentFilterPromptResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. | Non |
promptFilterResults
Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents.
Aucune propriété définie pour ce composant.
dalleContentFilterResults
Informations sur les résultats du filtrage de contenu.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
sexuel | contentFilterSeverityResult | Non | ||
violence | contentFilterSeverityResult | Non | ||
haine | contentFilterSeverityResult | Non | ||
self_harm | contentFilterSeverityResult | Non |
dalleFilterResults
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
sexuel | contentFilterSeverityResult | Non | ||
violence | contentFilterSeverityResult | Non | ||
haine | contentFilterSeverityResult | Non | ||
self_harm | contentFilterSeverityResult | Non | ||
profanité | contentFilterDetectedResult | Non | ||
jailbreak | contentFilterDetectedResult | Non | ||
custom_blocklists | contentFilterDetailedResults | Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. | Non |
chatCompletionsRequestCommon
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
Non | 1 |
flux | booléen | Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE] . |
Non | False |
stop | chaîne ou tableau | Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. | Non | |
max_tokens | entier | Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4 096 : jetons d’invite). N’est pas compatible avec les modèles de série o1. | Non | 4096 |
max_completion_tokens | entier | Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. Elle est uniquement prise en charge dans les modèles de série o1. Expansion de la prise en charge d’autres modèles dans une future version d’API. | Non | |
presence_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. | Non | 0 |
frequency_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. | Non | 0 |
logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. | Non | |
utilisateur | string | Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus. | Non |
createCompletionRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
prompt | chaîne ou tableau | Prompt ou prompts pour lesquels il faut générer des complétions, avec encodage sous forme de chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons. Notez que <|endoftext|> est le séparateur de documents que le modèle voit lors de la formation. Par conséquent, si un prompt n’est pas spécifié, le modèle est généré comme s’il s’agissait du début d’un nouveau document. |
Oui | |
best_of | entier | Génère des complétions best_of côté serveur et retourne la « meilleure » (celle avec la probabilité logarithmique la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.Quand il est utilisé avec n , best_of contrôle le nombre de complétions candidates, et n spécifie le nombre de retours. best_of doit être supérieur à n .Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop . |
Non | 1 |
echo | booléen | Renvoyer l’invite en plus de l’achèvement |
Non | False |
frequency_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. |
Non | 0 |
logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le générateur de jetons GPT) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du jeton <|endoftext|>. |
Non | Aucune |
logprobs | entier | Inclut les probabilités logarithmiques sur les jetons de sortie logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est égal à 5, l’API retourne une liste des 5 jetons les plus probables. L’API retournant toujours le logprob du jeton échantillonné, il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse.La valeur maximale de logprobs est 5. |
Non | Aucune |
max_tokens | entier | Nombre maximal de jetons pouvant être générés dans la complétion. Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle. |
Non | 16 |
n | entier | Nombre d’achèvements à générer pour chaque invite. Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop . |
Non | 1 |
presence_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. |
Non | 0 |
seed | entier | S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. |
Non | |
stop | chaîne ou tableau | Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt. |
Non | |
flux | booléen | Indique s’il faut renvoyer la progression partielle. S’ils sont définis, les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE] . |
Non | False |
suffix | string | Suffixe qui vient après l’achèvement d’un texte inséré. Ce paramètre est uniquement pris en charge pour gpt-3.5-turbo-instruct . |
Non | Aucune |
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
Non | 1 |
utilisateur | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. |
Non |
createCompletionResponse
Représente une réponse de complétion de l’API. Remarque : les objets de réponse diffusés en continu et non diffusés en continu partagent la même forme (contrairement au point de terminaison de conversation).
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur unique de la saisie semi-automatique. | Oui | |
options | tableau | Liste des choix d’achèvement générés pour l’invite d’entrée. | Oui | |
created | entier | Horodatage Unix (en secondes) de la création de l’achèvement. | Oui | |
modèle | string | Modèle utilisé pour la complétion. | Oui | |
prompt_filter_results | promptFilterResults | Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. | Non | |
system_fingerprint | string | Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute. Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end. |
Non | |
object | enum | Type d’objet, qui est toujours « text_completion » Valeurs possibles : text_completion |
Oui | |
utilisation | completionUsage | Statistiques d’utilisation pour la demande d’achèvement. | Non |
createChatCompletionRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
Non | 1 |
flux | booléen | Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE] . |
Non | False |
stop | chaîne ou tableau | Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. |
Non | |
max_tokens | entier | Nombre maximal de jetons pouvant être générés dans la complétion de conversation. La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle. |
Non | |
max_completion_tokens | entier | Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. Elle est uniquement prise en charge dans les modèles de série o1. Expansion de la prise en charge d’autres modèles dans une future version d’API. | Non | |
presence_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. |
Non | 0 |
frequency_penalty | nombre | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. |
Non | 0 |
logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. |
Non | Aucune |
utilisateur | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. |
Non | |
Cloud vers appareil | tableau | Liste des messages comprenant la conversation jusqu’ici. | Oui | |
data_sources | tableau | Les entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent. Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI. |
Non | |
logprobs | booléen | Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le content de message . |
Non | False |
top_logprobs | entier | Entier compris entre 0 et 20 spécifiant le nombre des jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. logprobs devez être défini sur true si ce paramètre est utilisé. |
Non | |
n | entier | Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés pour tous les choix. Gardez n défini sur 1 pour minimiser les coûts. |
Non | 1 |
parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | Non | True |
response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Objet spécifiant le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106 .Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni.Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length" , ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non | |
seed | entier | Cette fonctionnalité est en version bêta. S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. |
Non | |
stream_options | chatCompletionStreamOptions | Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true . |
Non | Aucune |
outils | tableau | Liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option afin de fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge. |
Non | |
tool_choice | chatCompletionToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère un message à la place. auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si des outils sont présents. |
Non | |
function_call | chaîne ou chatCompletionFunctionCallOption | Déconseillé en faveur de tool_choice .Contrôle la fonction (le cas échéant) appelée par le modèle. none signifie que le modèle n’appelle pas de fonction et génère un message à la place.auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.none est la valeur par défaut lorsqu’aucune fonction n’est présente. auto est la valeur par défaut si des fonctions sont présentes. |
Non | |
functions | tableau | Déconseillé en faveur de tools .Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. |
Non |
chatCompletionFunctions
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
description | string | Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | Non | |
nom | chaîne | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | Oui | |
parameters | FunctionParameters | Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide (/azure/ai-services/openai/how-to/function-calling) pour obtenir des exemples, et consultez les informations de référence sur le schéma JSON pour obtenir de la documentation sur le format. L’omission de parameters définit une fonction avec une liste de paramètres vide. |
Non |
chatCompletionFunctionCallOption
La spécification d’une fonction particulière via {"name": "my_function"}
force le modèle à appeler cette fonction.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
name | chaîne | Nom de la fonction à appeler. | Oui |
chatCompletionFunctionParameters
Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour obtenir des exemples, et consultez les informations de référence sur le schéma JSON pour obtenir de la documentation sur le format.
Aucune propriété définie pour ce composant.
chatCompletionRequestMessage
Ce composant peut être l’un des éléments suivants :
chatCompletionRequestSystemMessage
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
content | chaîne ou tableau | Contenu du message système. | Oui | |
role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas system .Valeurs possibles : system |
Oui | |
name | chaîne | Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. | Non |
chatCompletionRequestUserMessage
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
content | chaîne ou tableau | Contenu du message de l’utilisateur. |
Oui | |
role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas user .Valeurs possibles : user |
Oui | |
name | chaîne | Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. | Non |
chatCompletionRequestAssistantMessage
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
content | chaîne ou tableau | Contenu du message de l’Assistant. Obligatoire, sauf si tool_calls ou function_call est spécifié. |
Non | |
refusal | string | Message de refus de l’assistant. | Non | |
role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas assistant .Valeurs possibles : assistant |
Oui | |
name | chaîne | Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. | Non | |
tool_calls | chatCompletionMessageToolCalls | Appels d’outils générés par le modèle, par exemple les appels de fonction. | Non | |
function_call | object | Déconseillé et remplacé par tool_calls . Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. |
Non |
Propriétés pour function_call
arguments
Nom | Type | Description | Default |
---|---|---|---|
arguments | string | Arguments à utiliser pour appeler la fonction, tels qu’ils sont générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. |
name
Nom | Type | Description | Default |
---|---|---|---|
name | chaîne | Nom de la fonction à appeler. |
chatCompletionRequestToolMessage
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas tool .Valeurs possibles : tool |
Oui | |
content | chaîne ou tableau | Contenu du message de l’outil. | Oui | |
tool_call_id | string | Appel d’outil auquel ce message répond. | Oui |
chatCompletionRequestFunctionMessage
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas function .Valeurs possibles : fonction |
Oui | |
content | string | Contenu du message de fonction. | Oui | |
name | chaîne | Nom de la fonction à appeler. | Oui |
chatCompletionRequestSystemMessageContentPart
Ce composant peut être l’un des éléments suivants :
chatCompletionRequestUserMessageContentPart
Ce composant peut être l’un des éléments suivants :
chatCompletionRequestAssistantMessageContentPart
Ce composant peut être l’un des éléments suivants :
chatCompletionRequestToolMessageContentPart
Ce composant peut être l’un des éléments suivants :
chatCompletionRequestMessageContentPartText
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | enum | Le type de la partie contenu. Valeurs possibles : text |
Oui | |
texte | string | Texte. | Oui |
chatCompletionRequestMessageContentPartImage
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | enum | Le type de la partie contenu. Valeurs possibles : image_url |
Oui | |
image_url | object | Oui |
Propriétés pour image_url
url
Nom | Type | Description | Default |
---|---|---|---|
url | string | URL de l’image ou des données d’image encodées en base64. |
detail
Nom | Type | Description | Default |
---|---|---|---|
detail | string | Spécifie le niveau de détail de l’image. Découvrez-en plus en consultant le guide de Vision. | auto |
chatCompletionRequestMessageContentPartRefusal
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | enum | Le type de la partie contenu. Valeurs possibles : refusal |
Oui | |
refusal | string | Message de refus généré par le modèle. | Oui |
azureChatExtensionConfiguration
Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Oui |
azureChatExtensionType
Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Description : une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation
des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Type : string
Par défaut :
Nom de l’énumération : AzureChatExtensionType
Valeurs d’énumération :
Valeur | Description |
---|---|
azure_search | Représente l’utilisation de Recherche Azure en tant qu’extension de conversation Azure OpenAI. |
azure_cosmos_db | Représente l’utilisation d’Azure Cosmos DB comme extension de conversation Azure OpenAI. |
elasticsearch | Représente l’utilisation de l’index Elasticsearch® comme extension de conversation Azure OpenAI. |
mongo_db | Représente l’utilisation de MongoDB comme extension de conversation Azure OpenAI. |
pinecone | Représente l’utilisation de l’index Pinecone comme extension de conversation Azure OpenAI. |
azureSearchChatExtensionConfiguration
Une représentation spécifique des options configurables pour Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Oui | |
parameters | azureSearchChatExtensionParameters | Paramètres de Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI. | Non |
azureSearchChatExtensionParameters
Paramètres de Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
authentication | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | Oui | ||
top_n_documents | entier | Le nombre maximal de documents à proposer pour la requête configurée. | Non | |
max_search_queries | entier | Nombre maximal de requêtes réécrites devant être envoyées au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | Non | |
allow_partial_result | booléen | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. | Non | False |
in_scope | booléen | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | Non | |
sévérité | entier | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée, mais plus faible sera le rappel de la réponse. | Non | |
endpoint | string | Chemin d’accès du point de terminaison absolu de la ressource Recherche cognitive Azure à utiliser. | Oui | |
index_name | string | Le nom de l’index à utiliser comme disponible dans la ressource Recherche Azure référencée. | Oui | |
fields_mapping | azureSearchIndexFieldMappingOptions | Paramètres facultatifs permettant de contrôler le traitement des champs lors de l'utilisation d'une ressource Azure Search configurée. | Non | |
query_type | azureSearchQueryType | Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI. | Non | |
semantic_configuration | string | La configuration sémantique supplémentaire pour la requête. | Non | |
filter | string | Filtre de recherche. | Non | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource | Non | ||
include_contexts | tableau | Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent . |
Non |
azureSearchIndexFieldMappingOptions
Paramètres facultatifs permettant de contrôler le traitement des champs lors de l'utilisation d'une ressource Azure Search configurée.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
title_field | string | Nom du champ d’index à utiliser comme titre. | Non | |
url_field | string | Nom du champ d’index à utiliser comme URL. | Non | |
filepath_field | string | Le nom du champ d’index à utiliser comme chemin d’accès au fichier. | Non | |
content_fields | tableau | Les noms des champs d’index qui doivent être traités comme du contenu. | Non | |
content_fields_separator | string | Le modèle de séparation que les champs de contenu doivent utiliser. | Non | |
vector_fields | tableau | Noms de champs qui représentent des données vectorielles. | Non | |
image_vector_fields | tableau | Les noms des champs qui représentent des données de vecteurs d’image. | Non |
azureSearchQueryType
Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Description : le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Type : string
Par défaut :
Nom de l’énumération : AzureSearchQueryType
Valeurs d’énumération :
Valeur | Description |
---|---|
simple | Représente l'analyseur de requêtes simple par défaut. |
sémantique | Représente l'analyseur de requêtes sémantiques pour la modélisation sémantique avancée. |
vector | Représente la recherche vectorielle sur des données calculées. |
vector_simple_hybrid | Représente une combinaison de la stratégie d'interrogation simple avec des données vectorielles. |
vector_semantic_hybrid | Représente une combinaison de recherche sémantique et d'interrogation de données vectorielles. |
azureCosmosDBChatExtensionConfiguration
Une représentation spécifique des options configurables pour Azure Cosmos DB lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Oui | |
parameters | azureCosmosDBChatExtensionParameters | Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation d’Azure Cosmos DB for MongoDB vCore. |
Non |
azureCosmosDBChatExtensionParameters
Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation d’Azure Cosmos DB for MongoDB vCore.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
authentication | onYourDataConnectionStringAuthenticationOptions | Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion. | Oui | |
top_n_documents | entier | Le nombre maximal de documents à proposer pour la requête configurée. | Non | |
max_search_queries | entier | Nombre maximal de requêtes réécrites devant être envoyées au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | Non | |
allow_partial_result | booléen | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. | Non | False |
in_scope | booléen | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | Non | |
sévérité | entier | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée, mais plus faible sera le rappel de la réponse. | Non | |
database_name | string | Le nom de la base de données du cœur virtuel MongoDB à utiliser avec Azure Cosmos DB. | Oui | |
container_name | string | Le nom du conteneur de ressource SQL Azure Cosmos DB. | Oui | |
index_name | string | Le nom de l’index du cœur virtuel MongoDB à utiliser avec Azure Cosmos DB. | Oui | |
fields_mapping | azureCosmosDBFieldMappingOptions | Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée. | Oui | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Oui | ||
include_contexts | tableau | Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent . |
Non |
azureCosmosDBFieldMappingOptions
Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
title_field | string | Nom du champ d’index à utiliser comme titre. | Non | |
url_field | string | Nom du champ d’index à utiliser comme URL. | Non | |
filepath_field | string | Le nom du champ d’index à utiliser comme chemin d’accès au fichier. | Non | |
content_fields | tableau | Les noms des champs d’index qui doivent être traités comme du contenu. | Oui | |
content_fields_separator | string | Le modèle de séparation que les champs de contenu doivent utiliser. | Non | |
vector_fields | tableau | Noms de champs qui représentent des données vectorielles. | Oui |
elasticsearchChatExtensionConfiguration
Une représentation spécifique des options configurables pour Elasticsearch lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Oui | |
parameters | elasticsearchChatExtensionParameters | Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de conversation Azure OpenAI. | Non |
elasticsearchChatExtensionParameters
Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de conversation Azure OpenAI.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
authentication | onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions | Oui | ||
top_n_documents | entier | Le nombre maximal de documents à proposer pour la requête configurée. | Non | |
max_search_queries | entier | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | Non | |
allow_partial_result | booléen | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. | Non | False |
in_scope | booléen | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | Non | |
sévérité | entier | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée, mais plus faible sera le rappel de la réponse. | Non | |
endpoint | string | Le point de terminaison d’Elasticsearch®. | Oui | |
index_name | string | Le nom d’index d’Elasticsearch®. | Oui | |
fields_mapping | elasticsearchIndexFieldMappingOptions | Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée. | Non | |
query_type | elasticsearchQueryType | Le type de requête de récupération Elasticsearch® qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI. | Non | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource | Non | ||
include_contexts | tableau | Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent . |
Non |
elasticsearchIndexFieldMappingOptions
Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
title_field | string | Nom du champ d’index à utiliser comme titre. | Non | |
url_field | string | Nom du champ d’index à utiliser comme URL. | Non | |
filepath_field | string | Le nom du champ d’index à utiliser comme chemin d’accès au fichier. | Non | |
content_fields | tableau | Les noms des champs d’index qui doivent être traités comme du contenu. | Non | |
content_fields_separator | string | Le modèle de séparation que les champs de contenu doivent utiliser. | Non | |
vector_fields | tableau | Noms de champs qui représentent des données vectorielles. | Non |
elasticsearchQueryType
Le type de requête de récupération Elasticsearch® qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Description : le type de requête de récupération Elasticsearch® qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Type : string
Par défaut :
Nom de l’énumération : ElasticsearchQueryType
Valeurs d’énumération :
Valeur | Description |
---|---|
simple | Représente l'analyseur de requêtes simple par défaut. |
vector | Représente la recherche vectorielle sur des données calculées. |
mongoDBChatExtensionConfiguration
Représentation spécifique des options configurables pour MongoDB lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Oui | |
parameters | mongoDBChatExtensionParameters | Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation de MongoDB. | Non |
mongoDBChatExtensionParameters
Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation de MongoDB.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
authentication | onYourDataUsernameAndPasswordAuthenticationOptions | Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe. | Oui | |
top_n_documents | entier | Le nombre maximal de documents à proposer pour la requête configurée. | Non | |
max_search_queries | entier | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | Non | |
allow_partial_result | booléen | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. | Non | False |
in_scope | booléen | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | Non | |
sévérité | entier | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée, mais plus faible sera le rappel de la réponse. | Non | |
endpoint | string | Nom du point de terminaison du cluster MongoDB. | Oui | |
database_name | string | Nom de la base de données MongoDB. | Oui | |
collection_name | string | Nom de la collection MongoDB. | Oui | |
app_name | string | Nom de l’application MongoDB. | Oui | |
index_name | string | Nom de l’index MongoDB. | Oui | |
fields_mapping | mongoDBFieldMappingOptions | Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource MongoDB configurée. | Oui | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Oui | ||
include_contexts | tableau | Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent . |
Non |
mongoDBFieldMappingOptions
Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource MongoDB configurée.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
title_field | string | Nom du champ d’index à utiliser comme titre. | Non | |
url_field | string | Nom du champ d’index à utiliser comme URL. | Non | |
filepath_field | string | Le nom du champ d’index à utiliser comme chemin d’accès au fichier. | Non | |
content_fields | tableau | Les noms des champs d’index qui doivent être traités comme du contenu. | Oui | |
content_fields_separator | string | Le modèle de séparation que les champs de contenu doivent utiliser. | Non | |
vector_fields | tableau | Noms de champs qui représentent des données vectorielles. | Oui |
pineconeChatExtensionConfiguration
Une représentation spécifique des options configurables pour Pinecone lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Oui | |
parameters | pineconeChatExtensionParameters | Paramètres de configuration des extensions de conversation Azure OpenAI Pinecone. | Non |
pineconeChatExtensionParameters
Paramètres de configuration des extensions de conversation Azure OpenAI Pinecone.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
authentication | onYourDataApiKeyAuthenticationOptions | Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API. | Oui | |
top_n_documents | entier | Le nombre maximal de documents à proposer pour la requête configurée. | Non | |
max_search_queries | entier | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | Non | |
allow_partial_result | booléen | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. | Non | False |
in_scope | booléen | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | Non | |
sévérité | entier | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée, mais plus faible sera le rappel de la réponse. | Non | |
Environnement | string | Le nom de l’environnement de Pinecone. | Oui | |
index_name | string | Le nom de l’index de base de données Pinecone. | Oui | |
fields_mapping | pineconeFieldMappingOptions | Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée. | Oui | |
embedding_dependency | onYourDataDeploymentNameVectorizationSource | Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un nom de modèle de déploiement d’incorporation interne dans la même ressource Azure OpenAI. |
Oui | |
include_contexts | tableau | Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent . |
Non |
pineconeFieldMappingOptions
Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
title_field | string | Nom du champ d’index à utiliser comme titre. | Non | |
url_field | string | Nom du champ d’index à utiliser comme URL. | Non | |
filepath_field | string | Le nom du champ d’index à utiliser comme chemin d’accès au fichier. | Non | |
content_fields | tableau | Les noms des champs d’index qui doivent être traités comme du contenu. | Oui | |
content_fields_separator | string | Le modèle de séparation que les champs de contenu doivent utiliser. | Non |
onYourDataAuthenticationOptions
Les options d’authentification pour Azure OpenAI sur vos données.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Oui |
onYourDataContextProperty
La propriété de contexte.
Description : la propriété de contexte.
Type : string
Par défaut :
Nom de l’énumération : OnYourDataContextProperty
Valeurs d’énumération :
Valeur | Description |
---|---|
citations | La propriété citations . |
intention | La propriété intent . |
all_retrieved_documents | La propriété all_retrieved_documents . |
onYourDataAuthenticationType
Les types d’authentification pris en charge avec Azure OpenAI sur vos données.
Description : les types d’authentification pris en charge avec Azure OpenAI sur vos données.
Type : string
Par défaut :
Nom de l’énumération : OnYourDataAuthenticationType
Valeurs d’énumération :
Valeur | Description |
---|---|
api_key | Authentification avec clé API. |
connection_string | Authentification avec chaîne de connexion. |
key_and_key_id | Authentification avec paire clé et ID de clé. |
encoded_api_key | Authentification avec clé API encodée. |
access_token | Authentification avec jeton d’accès. |
system_assigned_managed_identity | Authentification avec identité managée affectée par le système. |
user_assigned_managed_identity | Authentification avec identité managée affectée par l’utilisateur(-trice). |
username_and_password | Authentification par nom d’utilisateur et mot de passe. |
onYourDataApiKeyAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Oui | |
key | string | Clé API à utiliser pour l’authentification. | Non |
onYourDataConnectionStringAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Oui | |
connection_string | string | La chaîne de connexion à utiliser pour l’authentification. | Non |
onYourDataKeyAndKeyIdAuthenticationOptions
Les options d’authentification d’Azure OpenAI sur vos données lors de l’utilisation d’une paire clé et ID de clé Elasticsearch.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Oui | |
key | string | Clé Elasticsearch à utiliser pour l’authentification. | Non | |
key_id | string | ID de clé Elasticsearch à utiliser pour l’authentification. | Non |
onYourDataEncodedApiKeyAuthenticationOptions
Les options d’authentification d’Azure OpenAI sur vos données lors de l’utilisation d’une clé API encodée Elasticsearch.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Oui | |
encoded_api_key | string | Clé API encodée Elasticsearch à utiliser pour l’authentification. | Non |
onYourDataAccessTokenAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un jeton d’accès.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Oui | |
access_token | string | Le jeton d’accès à utiliser pour l’authentification. | Non |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Les options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par le système.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Oui |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Les options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par l’utilisateur.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Oui | |
managed_identity_resource_id | string | ID de ressource de l’identité managée affectée par l’utilisateur à utiliser pour l’authentification. | Non |
onYourDataUsernameAndPasswordAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Oui | |
username | string | Nom d’utilisateur à utiliser pour l’authentification. | Non | |
mot de passe | string | Mot de passe. à utiliser pour l’authentification. | Non |
onYourDataVectorizationSource
Une représentation abstraite d’une source de vectorisation pour Azure OpenAI sur vos données avec la recherche vectorielle.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. |
Oui |
onYourDataVectorizationSourceType
Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle.
Description : représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec
la recherche vectorielle.
Type : string
Par défaut :
Nom de l’énumération : OnYourDataVectorizationSourceType
Valeurs d’énumération :
Valeur | Description |
---|---|
endpoint | Représente la vectorisation effectuée par les appels de service public à un modèle d’incorporation Azure OpenAI. |
deployment_name | Représente un nom de modèle de déploiement Ada à utiliser. Ce modèle de déploiement doit se trouver dans la même ressource Azure OpenAI, mais sur vos données utilisera ce modèle de déploiement via un appel interne plutôt qu’un appel public, ce qui active la recherche vectorielle même dans des réseaux privés. |
integrated | Représente le vectoriseur intégré défini dans la ressource de recherche. |
model_id | Représente un ID de modèle d’incorporation spécifique tel que défini dans le service de recherche. Actuellement pris en charge uniquement par Elasticsearch®. |
onYourDataEndpointVectorizationSource
Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un appel de point de terminaison Azure OpenAI pour les incorporations.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. |
Oui | |
endpoint | string | Spécifie l'URL du point de terminaison de la ressource à partir duquel les éléments intégrés doivent être récupérés. Il doit être au format https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Le paramètre de requête api-version n’est pas autorisée. | Non | |
authentication | onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | Non | ||
dimensions | entier | Le nombre de dimensions que les incorporations doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs. |
Non |
onYourDataDeploymentNameVectorizationSource
Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un nom de modèle de déploiement d’incorporation interne dans la même ressource Azure OpenAI.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. |
Oui | |
deployment_name | string | Spécifie le nom du modèle de déploiement à utiliser pour la vectorisation. Ce déploiement de modèle doit se trouver dans la même ressource Azure OpenAI, mais sur vos données utilise ce modèle de déploiement via un appel interne plutôt qu’un appel public, ce qui permet la recherche vectorielle même dans des réseaux privés. | Non | |
dimensions | entier | Le nombre de dimensions que les incorporations doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs. |
Non |
onYourDataIntegratedVectorizationSource
Représente le vectoriseur intégré défini dans la ressource de recherche.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. |
Oui |
onYourDataModelIdVectorizationSource
Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un ID de modèle de service de recherche. Actuellement pris en charge uniquement par Elasticsearch®.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. |
Oui | |
model_id | string | Spécifie l’ID de modèle à utiliser pour la vectorisation. Cet ID de modèle doit être défini dans le service de recherche. | Non |
azureChatExtensionsMessageContext
Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvements de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
citations | tableau | Résultat de récupération de la source de données, utilisé pour générer le message assistant dans la réponse. | Non | |
intention | string | Intention détectée à partir de l’historique de conversation, utilisée pour passer au prochain tour afin de reporter le contexte. | Non | |
all_retrieved_documents | tableau | Tous les documents récupérés. | Non |
citation
informations de citation pour un message de réponse des saisies semi-automatiques de conversation.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
content | string | Contenu de la citation. | Oui | |
title | string | Titre de la citation. | Non | |
url | string | URL de la citation. | Non | |
filepath | string | Chemin d’accès au fichier de la citation. | Non | |
chunk_id | string | ID de bloc de la citation. | Non | |
rerank_score | nombre | Le score de reclassement du document récupéré. | Non |
retrievedDocument
Le document récupéré.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
content | string | Contenu de la citation. | Oui | |
title | string | Titre de la citation. | Non | |
url | string | URL de la citation. | Non | |
filepath | string | Chemin d’accès au fichier de la citation. | Non | |
chunk_id | string | ID de bloc de la citation. | Non | |
rerank_score | nombre | Le score de reclassement du document récupéré. | Non | |
search_queries | tableau | Ls requêtes de recherche utilisées pour récupérer le document. | Non | |
data_source_index | entier | L’index de la source de données. | Non | |
original_search_score | nombre | Le score de recherche d’origine du document récupéré. | Non | |
filter_reason | filterReason | La raison de filtrage du document récupéré. | Non |
filterReason
La raison de filtrage du document récupéré.
Description : la raison de filtrage du document récupéré.
Type : string
Par défaut :
Nom de l’énumération : FilterReason
Valeurs d’énumération :
Valeur | Description |
---|---|
score | Le document est filtré par le seuil de score de recherche d’origine défini par la configuration de strictness . |
reclassement | Le document n’est pas filtré par le seuil du score de recherche d’origine, mais est filtré par le score de reclassement et la configuration de top_n_documents . |
chatCompletionMessageToolCall
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | ID de l’appel de l’outil. | Oui | |
type | toolCallType | Le type de l’appel d’outil, dans ce cas function . |
Oui | |
function | object | Fonction appelée par le modèle. | Oui |
Propriétés de la fonction
name
Nom | Type | Description | Default |
---|---|---|---|
name | chaîne | Nom de la fonction à appeler. |
arguments
Nom | Type | Description | Default |
---|---|---|---|
arguments | string | Arguments à utiliser pour appeler la fonction, tels qu’ils sont générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. |
toolCallType
Le type de l’appel d’outil, dans ce cas function
.
Description : le type de l’appel d’outil, dans ce cas function
.
Type : string
Par défaut :
Nom de l’énumération : ToolCallType
Valeurs d’énumération :
Valeur | Description |
---|---|
function | Le type de l’appel d’outil est fonction. |
chatCompletionRequestMessageTool
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
tool_call_id | string | Appel d’outil auquel ce message répond. | Non | |
content | string | Contenu du message. | Non |
chatCompletionRequestMessageFunction
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas function .Valeurs possibles : fonction |
Non | |
nom | chaîne | Contenu du message. | Non | |
content | string | Contenu du message. | Non |
createChatCompletionResponse
Représente une réponse de complétion de conversation retournée par le modèle, en fonction de l’entrée fournie.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur unique de la complétion de conversation. | Oui | |
prompt_filter_results | promptFilterResults | Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. | Non | |
options | tableau | Liste des choix de saisie semi-automatique de conversation. Peut être plusieurs si n est supérieur à 1. |
Oui | |
created | entier | Horodatage Unix (en secondes) de la création de la complétion de conversation. | Oui | |
modèle | string | Modèle utilisé pour la complétion de conversation. | Oui | |
system_fingerprint | string | Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute. Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end. |
Non | |
object | enum | Le type d’objet, qui est toujours chat.completion .Valeurs possibles : chat.completion |
Oui | |
utilisation | completionUsage | Statistiques d’utilisation pour la demande d’achèvement. | Non |
createChatCompletionStreamResponse
Représente un bloc diffusé en continu d’une réponse de complétion de conversation retournée par le modèle, en fonction de l’entrée fournie.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur unique de la complétion de conversation. Chaque bloc a le même ID. | Oui | |
options | tableau | Liste des choix de saisie semi-automatique de conversation. Peut contenir plusieurs éléments si n est supérieur à 1. |
Oui | |
created | entier | Horodatage Unix (en secondes) de la création de la complétion de conversation. Chaque bloc a le même timestamp. | Oui | |
modèle | string | Modèle utilisé pour générer la complétion. | Oui | |
system_fingerprint | string | Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute. Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end. |
Non | |
object | enum | Le type d’objet, qui est toujours chat.completion.chunk .Valeurs possibles : chat.completion.chunk |
Oui |
chatCompletionStreamResponseDelta
Delta de complétion de conversation généré par les réponses de modèle diffusées en continu.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
content | string | Contenu du message de bloc. | Non | |
function_call | object | Déconseillé et remplacé par tool_calls . Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. |
Non | |
tool_calls | tableau | Non | ||
role | enum | Rôle de l’auteur de ce message. Valeurs possibles : system, user, assistant, tool |
Non | |
refusal | string | Message de refus généré par le modèle. | Non |
Propriétés pour function_call
arguments
Nom | Type | Description | Default |
---|---|---|---|
arguments | string | Arguments à utiliser pour appeler la fonction, tels qu’ils sont générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. |
name
Nom | Type | Description | Default |
---|---|---|---|
name | chaîne | Nom de la fonction à appeler. |
chatCompletionMessageToolCallChunk
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
index | entier | Oui | ||
id | string | ID de l’appel de l’outil. | Non | |
type | enum | Type de l'outil. Actuellement, seul function est pris en charge.Valeurs possibles : fonction |
Non | |
function | object | Non |
Propriétés de la fonction
name
Nom | Type | Description | Default |
---|---|---|---|
name | chaîne | Nom de la fonction à appeler. |
arguments
Nom | Type | Description | Default |
---|---|---|---|
arguments | string | Arguments à utiliser pour appeler la fonction, tels qu’ils sont générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. |
chatCompletionStreamOptions
Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true
.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
include_usage | booléen | Si cette option est définie, un bloc supplémentaire est diffusé en continu avant le message data: [DONE] . Le champ usage de ce bloc affiche les statistiques d’utilisation des jetons pour l’ensemble de la requête, et le champ choices sera toujours un tableau vide. Tous les autres blocs incluent également un champ usage , mais avec une valeur Null. |
Non |
chatCompletionChoiceLogProbs
Informations de probabilité logarithmique pour le choix.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
content | tableau | Une liste des jetons de contenu de message avec des informations de probabilité logarithmique. | Oui | |
refusal | tableau | Liste des jetons de refus de message avec des informations de probabilité logarithmique. | Non |
chatCompletionTokenLogprob
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
token | string | Jeton. | Oui | |
logprob | nombre | La probabilité logarithmique de ce jeton. | Oui | |
octets | tableau | Une liste d’entiers pour la représentation en octets UTF-8 du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations en octets doivent être combinées pour générer la représentation textuelle correcte. Peut être null s’il n’y a pas de représentation en octets pour le jeton. |
Oui | |
top_logprobs | tableau | Liste des jetons les plus probables et de leur probabilité logarithmique, à cette position de jeton. Dans de rares cas, il peut y avoir moins que le nombre de top_logprobs demandées retournées. |
Oui |
chatCompletionResponseMessage
Message de complétion de conversation généré par le modèle.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
role | chatCompletionResponseMessageRole | Le rôle de l’auteur du message de réponse. | Oui | |
refusal | string | Message de refus généré par le modèle. | Oui | |
content | string | Contenu du message. | Oui | |
tool_calls | tableau | Appels d’outils générés par le modèle, par exemple les appels de fonction. | Non | |
function_call | chatCompletionFunctionCall | Déconseillé et remplacé par tool_calls . Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. |
Non | |
contexte | azureChatExtensionsMessageContext | Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvement de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante. |
Non |
chatCompletionResponseMessageRole
Le rôle de l’auteur du message de réponse.
Description : le rôle de l’auteur(-trice) du message de réponse.
Type : string
Par défaut :
Valeurs d’énumération :
- assistant
chatCompletionToolChoiceOption
Contrôle l’outil (le cas échéant) appelé par le modèle. none
signifie que le modèle n’appelle pas d’outil et génère un message à la place. auto
signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required
signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}}
force le modèle à appeler cet outil. none
est la valeur par défaut lorsqu’aucun outil n’est présent. auto
est la valeur par défaut si des outils sont présents.
Ce composant peut être l’un des éléments suivants :
chatCompletionNamedToolChoice
Spécifie un outil que le modèle doit utiliser. Utilisez-le pour forcer le modèle à appeler une fonction spécifique.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | enum | Type de l'outil. Actuellement, seul function est pris en charge.Valeurs possibles : fonction |
Oui | |
function | object | Oui |
Propriétés de la fonction
name
Nom | Type | Description | Default |
---|---|---|---|
name | chaîne | Nom de la fonction à appeler. |
ParallelToolCalls
Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil.
Aucune propriété définie pour ce composant.
chatCompletionMessageToolCalls
Appels d’outils générés par le modèle, par exemple les appels de fonction.
Aucune propriété définie pour ce composant.
chatCompletionFunctionCall
Déconseillé et remplacé par tool_calls
. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
name | chaîne | Nom de la fonction à appeler. | Oui | |
arguments | string | Arguments à utiliser pour appeler la fonction, tels qu’ils sont générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. | Oui |
completionUsage
Statistiques d’utilisation pour la demande d’achèvement.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
prompt_tokens | entier | Nombre de jetons dans l’invite. | Oui | |
completion_tokens | entier | Nombre de jetons dans la complétion générée. | Oui | |
total_tokens | entier | Nombre total de jetons utilisés dans la requête (prompt + complétion). | Oui | |
prompt_tokens_details | object | Détails de jetons de requête. | Non | |
completion_tokens_details | object | Répartition des jetons utilisés dans une saisie semi-automatique. | Non |
Propriétés de prompt_tokens_details
cached_tokens
Nom | Type | Description | Default |
---|---|---|---|
cached_tokens | entier | Nombre de jetons de requête mis en cache. |
Propriétés de completion_tokens_details
reasoning_tokens
Nom | Type | Description | Default |
---|---|---|---|
reasoning_tokens | entier | Jetons générés par le modèle pour le raisonnement. |
chatCompletionTool
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | enum | Type de l'outil. Actuellement, seul function est pris en charge.Valeurs possibles : fonction |
Oui | |
function | FunctionObject | Oui |
FunctionParameters
Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour découvrir des exemples, et consultez les informations de référence sur le schéma JSON pour obtenir la documentation sur le format.
L’omission de parameters
définit une fonction avec une liste de paramètres vide.
Aucune propriété définie pour ce composant.
FunctionObject
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
description | string | Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | Non | |
nom | chaîne | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | Oui | |
parameters | FunctionParameters | Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour découvrir des exemples et les informations de référence sur le schéma JSON pour obtenir la documentation sur le format. L’omission de parameters définit une fonction avec une liste de paramètres vide. |
Non | |
strict | booléen | Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de l’appel de fonction. Si la valeur est true, le modèle suit le schéma exact défini dans le champ parameters . Seul un sous-ensemble de schéma JSON est pris en charge lorsque strict est true . |
Non | False |
ResponseFormatText
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | enum | Type de format de réponse défini : text Valeurs possibles : text |
Oui |
ResponseFormatJsonObject
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | enum | Type de format de réponse défini : json_object Valeurs possibles : json_object |
Oui |
ResponseFormatJsonSchemaSchema
Schéma du format de réponse, décrit en tant qu’objet de schéma JSON.
Aucune propriété définie pour ce composant.
ResponseFormatJsonSchema
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | enum | Type de format de réponse défini : json_schema Valeurs possibles : json_schema |
Oui | |
json_schema | object | Oui |
Propriétés pour json_schema
description
Nom | Type | Description | Default |
---|---|---|---|
description | string | Description du rôle du format de réponse, qui permet au modèle de déterminer comment répondre dans le format. |
name
Nom | Type | Description | Default |
---|---|---|---|
name | chaîne | Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. |
schéma
Nom | Type | Description | Default |
---|---|---|---|
schéma | ResponseFormatJsonSchemaSchema | Schéma du format de réponse, décrit en tant qu’objet de schéma JSON. |
strict
Nom | Type | Description | Default |
---|---|---|---|
strict | booléen | Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie. Si la valeur est true, le modèle suit toujours le schéma exact défini dans le champ schema . Seul un sous-ensemble de schéma JSON est pris en charge lorsque strict est true . |
False |
chatCompletionChoiceCommon
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
index | entier | Non | ||
finish_reason | string | Non |
createTranslationRequest
Requête de traduction.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
file | string | Le fichier audio à traduire. | Oui | |
prompt | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Le prompt doit être en anglais. | Non | |
response_format | audioResponseFormat | Définit le format de la sortie. | Non | |
température | nombre | Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | Non | 0 |
audioResponse
Réponse de traduction ou de transcription lorsque response_format était json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
texte | string | Texte traduit ou transcrit. | Oui |
audioVerboseResponse
Réponse de traduction ou de transcription lorsque response_format était verbose_json
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
texte | string | Texte traduit ou transcrit. | Oui | |
tâche | string | Type de tâche audio. | Non | |
langage | string | Langue. | Non | |
durée | nombre | Duration. | Non | |
segments | tableau | Non | ||
words | tableau | Non |
audioResponseFormat
Définit le format de la sortie.
Description : définit le format de la sortie.
Type : string
Par défaut :
Valeurs d’énumération :
- json
- texte
- srt
- verbose_json
- vtt
createTranscriptionRequest
Requête de transcription.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
file | string | L’objet de fichier audio à transcrire. | Oui | |
prompt | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. | Non | |
response_format | audioResponseFormat | Définit le format de la sortie. | Non | |
température | nombre | Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | Non | 0 |
langage | string | La langue de l’audio d’entrée. Donner la langue d’entrée au format ISO-639-1 améliore la précision et la latence. | Non | |
timestamp_granularities[] | tableau | Les granularités d’horodatage à remplir pour cette transcription. response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : word ou segment . Remarque : il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. |
Non | ['segment'] |
audioSegment
Segment de transcription ou de traduction.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | entier | Identificateur de segment. | Non | |
chercher | nombre | Décalage du segment. | Non | |
start | nombre | Décalage de début du segment. | Non | |
end | nombre | Décalage de fin de segment. | Non | |
texte | string | Texte du segment. | Non | |
jetons | tableau | Jetons du texte. | Non | |
température | nombre | Température. | Non | |
avg_logprob | nombre | Probabilité logarithmique moyenne. | Non | |
compression_ratio | nombre | Taux de compression. | Non | |
no_speech_prob | nombre | Probabilité de « no speech ». | Non |
audioWord
Mot de transcription ou de traduction.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
word | string | Word | Non | |
start | nombre | Décalage de début du mot. | Non | |
end | nombre | Décalage de fin du mot. | Non |
createSpeechRequest
Demande de voix.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
entrée | string | Le texte pour lequel synthétiser l’audio. La longueur maximale est de 4096 caractères. | Oui | |
voice | enum | La voix à utiliser pour la synthèse vocale. Valeurs possibles : alloy, echo, fable, onyx, nova, shimmer |
Oui | |
response_format | enum | Le format dans lequel synthétiser l’audio. Valeurs possibles : mp3, opus, aac, flac, wav, pcm |
Non | |
speed | nombre | La vitesse de l’audio synthétisé. Sélectionnez une valeur entre 0.25 et 4.0 . 1.0 est la valeur par défaut. |
Non | 1.0 |
imageQuality
La qualité de l’image qui sera générée.
Description : la qualité de l’image qui sera générée.
Type : string
Valeur par défaut : standard
Nom de l’énumération : Quality
Valeurs d’énumération :
Valeur | Description |
---|---|
standard | La qualité standard crée des images avec une qualité standard. |
hd | La qualité HD crée des images avec des détails plus fins et une plus grande cohérence dans l’image. |
imagesResponseFormat
Format dans lequel les images générées sont retournées.
Description : le format dans lequel les images générées sont retournées.
Type : string
Valeur par défaut : url
Nom de l’énumération : ImagesResponseFormat
Valeurs d’énumération :
Valeur | Description |
---|---|
url | L’URL qui fournit un accès temporaire pour télécharger les images générées. |
b64_json | Les images générées sont retournées sous forme de chaîne encodée en base64. |
imageSize
Taille des images générées.
Description : la taille des images générées.
Type : string
Valeur par défaut : 1024x1024
Nom de l’énumération : Size
Valeurs d’énumération :
Valeur | Description |
---|---|
256 x 256 | La taille souhaitée de l’image générée est de 256 x 256 pixels. Uniquement prise en charge pour dall-e-2. |
512 x 512 | La taille souhaitée de l’image générée est de 512 x 512 pixels. Uniquement prise en charge pour dall-e-2. |
1792x1024 | La taille souhaitée de l’image générée est de 1792 x 1024 pixels. Uniquement prise en charge pour dall-e-3. |
1024x1792 | La taille souhaitée de l’image générée est de 1024 x 1792 pixels. Uniquement prise en charge pour dall-e-3. |
1024 x 1024 | La taille souhaitée de l’image générée est de 1024 x 1024 pixels. |
imageStyle
Le style des images générées.
Description : le style des images générées.
Type : string
Valeur par défaut : vivid
Nom de l’énumération : Style
Valeurs d’énumération :
Valeur | Description |
---|---|
vif | Vivid crée des images hyper réalistes et dramatiques. |
naturel | Natural crée des images qui sont plus naturelles et moins hyper réalistes. |
imageGenerationsRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 4 000 caractères. | Oui | |
n | entier | Nombre d’images à générer. | Non | 1 |
size | imageSize | Taille des images générées. | Non | 1024 x 1024 |
response_format | imagesResponseFormat | Format dans lequel les images générées sont retournées. | Non | url |
utilisateur | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. | Non | |
des données | imageQuality | La qualité de l’image qui sera générée. | Non | standard |
style | imageStyle | Le style des images générées. | Non | vif |
generateImagesResponse
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
created | entier | Le timestamp unix lors de la création de l’opération. | Oui | |
données | tableau | Les données de résultat de l’opération, en cas de réussite | Oui |
imageResult
L’URL de l’image ou l’image encodée en cas de réussite et une erreur dans le cas contraire.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
url | string | L’URL de l’image. | Non | |
b64_json | string | L’image encodée en base64 | Non | |
content_filter_results | dalleContentFilterResults | Informations sur les résultats du filtrage de contenu. | Non | |
revised_prompt | string | Le prompt utilisé pour générer l’image, s’il y a eu une révision de l’invite. | Non | |
prompt_filter_results | dalleFilterResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. | Non |
line
Un objet de ligne de contenu constitué d’une séquence adjacente d’éléments de contenu, tels que des mots et des marques de sélection.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
texte | string | Oui | ||
spans | tableau | Un tableau d’étendues qui représentent les objets détectés et leurs informations de cadre englobant. | Oui |
étendue
Un objet d’étendue qui représente un objet détecté et ses informations de cadre englobant.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
texte | string | Le contenu texte de l’étendue qui représente l’objet détecté. | Oui | |
offset | entier | Le décalage de caractère dans le texte où l’étendue commence. Ce décalage est défini comme la position du premier caractère de l’étendue, en comptant à partir du début du texte en tant que points de code Unicode. | Oui | |
length | entier | La longueur de l’étendue en caractères, mesurée en points de code Unicode. | Oui | |
polygon | tableau | Un tableau d’objets représentant des points dans le polygone qui entoure l’objet détecté. | Oui |
runCompletionUsage
Statistiques d’utilisation relatives à l’exécution. Cette valeur sera null
si l’exécution n’est pas dans un état terminal (c’est-à-dire in_progress
, queued
, etc.).
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
completion_tokens | entier | Nombre de jetons d’achèvement utilisés au cours de l’exécution. | Oui | |
prompt_tokens | entier | Nombre de jetons de prompt utilisés au cours de l’exécution. | Oui | |
total_tokens | entier | Nombre total de jetons utilisés (prompt + achèvement). | Oui |
runStepCompletionUsage
Statistiques d’utilisation relatives à l’étape d’exécution. Cette valeur sera null
pendant que l’état de l’étape d’exécution est in_progress
.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
completion_tokens | entier | Nombre de jetons d’achèvement utilisés au cours de l’étape d’exécution. | Oui | |
prompt_tokens | entier | Nombre de jetons de prompt utilisés au cours de l’étape d’exécution. | Oui | |
total_tokens | entier | Nombre total de jetons utilisés (prompt + achèvement). | Oui |
assistantsApiResponseFormatOption
Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106
.
Le paramètre sur { "type": "json_object" }
active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.
Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length"
, ce qui indique que la génération a dépassé max_tokens
ou que la conversation a dépassé la longueur maximale du contexte.
Ce composant peut être l’un des éléments suivants :
assistantsApiResponseFormat
Un objet décrivant la sortie attendue du modèle. Si json_object
, seul les types de function
tools
sont autorisés à être passés à l’exécution. Si text
, le modèle peut retourner du texte ou n’importe quelle valeur nécessaire.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Doit être text ou json_object . |
Non | texte |
Énumération de type : AssistantsApiResponseFormat
Valeur | Description |
---|---|
texte | |
json_object |
assistantObject
Représente un assistant
qui peut appeler le modèle et utiliser des outils.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Oui | |
object | string | Le type d’objet, qui est toujours assistant . |
Oui | |
created_at | entier | Horodatage Unix (en secondes) de la création de l’assistant. | Oui | |
name | chaîne | Nom de l’assistant. La longueur maximale est de 256 caractères. |
Oui | |
description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
Oui | |
modèle | string | ID du modèle à utiliser. Vous pouvez utiliser l’API de génération d’une liste de modèles pour voir tous les modèles disponibles. |
Oui | |
détaillées | string | Instructions système utilisées par l’assistant. La longueur maximale est de 256 000 caractères. |
Oui | |
tools | tableau | Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter , file_search ou function . |
Oui | [] |
tool_resources | object | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Oui | |
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
Non | 1 |
response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106 .Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length" , ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non |
Propriétés de tool_resources
code_interpreter
Nom | Type | Description | Default |
---|---|---|---|
file_ids | tableau | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
[] |
file_search
Nom | Type | Description | Default |
---|---|---|---|
vector_store_ids | tableau | L’ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant. |
Énumération d’objet : AssistantObjectType
Valeur | Description |
---|---|
assistant | Le type d’objet, qui est toujours Assistant |
createAssistantRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
modèle | Oui | |||
name | chaîne | Nom de l’assistant. La longueur maximale est de 256 caractères. |
Non | |
description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
Non | |
détaillées | string | Instructions système utilisées par l’assistant. La longueur maximale est de 256 000 caractères. |
Non | |
tools | tableau | Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter , retrieval ou function . |
Non | [] |
tool_resources | object | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non | |
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
Non | 1 |
response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106 .Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length" , ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non |
Propriétés de tool_resources
code_interpreter
Nom | Type | Description | Default |
---|---|---|---|
file_ids | tableau | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
[] |
file_search
Nom | Type | Description | Default |
---|---|---|---|
vector_store_ids | tableau | Le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant. |
|
vector_stores | tableau | Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant. |
modifyAssistantRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
modèle | Non | |||
nom | chaîne | Nom de l’assistant. La longueur maximale est de 256 caractères. |
Non | |
description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
Non | |
détaillées | string | Instructions système utilisées par l’assistant. La longueur maximale est de 32 768 caractères. |
Non | |
tools | tableau | Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter , retrieval ou function . |
Non | [] |
tool_resources | object | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non | |
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
Non | 1 |
response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106 .Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length" , ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non |
Propriétés de tool_resources
code_interpreter
Nom | Type | Description | Default |
---|---|---|---|
file_ids | tableau | Remplace la liste des ID de fichiers mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
[] |
file_search
Nom | Type | Description | Default |
---|---|---|---|
vector_store_ids | tableau | Remplace le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant. |
deleteAssistantResponse
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Oui | ||
deleted | booléen | Oui | ||
object | string | Oui |
Énumération d’objet : DeleteAssistantResponseState
Valeur | Description |
---|---|
assistant.deleted |
listAssistantsResponse
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
object | string | Oui | ||
données | tableau | Oui | ||
first_id | string | Oui | ||
last_id | string | Oui | ||
has_more | booléen | Oui |
assistantToolsCode
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Le type d’outil défini : code_interpreter |
Oui |
Énumération de type : assistantToolsCodeType
Valeur | Description |
---|---|
code_interpreter |
assistantToolsFileSearch
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Le type d’outil défini : file_search |
Oui | |
file_search | object | Remplace pour l’outil de recherche de fichiers. | Non |
Propriétés pour file_search
max_num_results
Nom | Type | Description | Default |
---|---|---|---|
max_num_results | entier | Nombre maximal de résultats que l’outil de recherche de fichiers doit générer. La valeur par défaut est 20 pour les modèles gpt-4* et 5 pour les modèles gpt-3.5-turbo. Ce nombre doit être compris entre 1 et 50 inclus. Notez que l’outil de recherche de fichiers peut générer moins de max_num_results résultats. |
Énumération de type : assistantToolsFileSearchType
Valeur | Description |
---|---|
file_search |
assistantToolsFileSearchTypeOnly
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Le type d’outil défini : file_search |
Oui |
Énumération de type : assistantToolsFileSearchType
Valeur | Description |
---|---|
file_search |
assistantToolsFunction
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Le type d’outil défini : function |
Oui | |
function | object | Définition de fonction. | Oui |
Propriétés de la fonction
description
Nom | Type | Description | Default |
---|---|---|---|
description | string | Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. |
name
Nom | Type | Description | Default |
---|---|---|---|
name | chaîne | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. |
parameters
Nom | Type | Description | Default |
---|---|---|---|
parameters | chatCompletionFunctionParameters | Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour découvrir des exemples et les informations de référence sur le schéma JSON pour obtenir la documentation sur le format. |
Énumération de type : assistantToolsFunction
Valeur | Description |
---|---|
function |
truncationObject
Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | La stratégie de troncation à utiliser pour le thread. Par défaut, il s’agit de auto . Si la valeur est définie sur last_messages , le thread est tronqué sur les n messages les plus récents dans le thread. Lorsque la valeur est définie sur auto , les messages au milieu du thread sont supprimés pour ajuster la longueur du contexte du modèle, max_prompt_tokens . |
Oui | |
last_messages | entier | Le nombre de messages les plus récents du thread lors de la construction du contexte de l’exécution. | Non |
Énumération de type : TruncationType
Valeur | Description |
---|---|
auto | |
last_messages |
assistantsApiToolChoiceOption
Contrôle l’outil (le cas échéant) appelé par le modèle.
none
signifie que le modèle n’appelle pas d’outils et génère un message à la place.
auto
(valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.
La spécification d’un outil particulier comme {"type": "file_search"}
ou {"type": "function", "function": {"name": "my_function"}}
force le modèle à appeler cet outil.
Ce composant peut être l’un des éléments suivants :
assistantsNamedToolChoice
Spécifie un outil que le modèle doit utiliser. Utilisez-le pour forcer le modèle à appeler un outil spécifique.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Type de l'outil. Si le type est function , le nom de la fonction doit être défini |
Oui | |
function | object | Non |
Propriétés de la fonction
name
Nom | Type | Description | Default |
---|---|---|---|
name | chaîne | Nom de la fonction à appeler. |
Énumération de type : AssistantsNamedToolChoiceType
Valeur | Description |
---|---|
function | |
code_interpreter | |
file_search |
runObject
Représente une exécution sur un thread.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Oui | |
object | string | Le type d’objet, qui est toujours thread.run . |
Oui | |
created_at | entier | Horodatage Unix (en secondes) de la création de l’exécution. | Oui | |
thread_id | string | ID du thread qui a été exécuté dans le cadre de cette exécution. | Oui | |
assistant_id | string | ID de l’assistant utilisé pour cette exécution. | Oui | |
statut | string | État de l’exécution, qui peut être queued , in_progress , requires_action , cancelling , cancelled , failed , completed ou expired . |
Oui | |
required_action | object | Détails de l’action requise pour poursuivre l’exécution. Est null si aucune action n’est requise. |
Oui | |
last_error | object | Dernière erreur associée à cette exécution. Est null en l’absence d’erreurs. |
Oui | |
expires_at | entier | Horodatage Unix (en secondes) de l’expiration de l’exécution. | Oui | |
started_at | entier | Horodatage Unix (en secondes) du démarrage de l’exécution. | Oui | |
cancelled_at | entier | Le timestamp Unix (en secondes) lorsque l’exécution a été annulée. | Oui | |
failed_at | entier | Horodatage Unix (en secondes) de l’échec de l’exécution. | Oui | |
completed_at | entier | Horodatage Unix (en secondes) de la fin de l’exécution. | Oui | |
incomplete_details | object | Détails sur la raison pour laquelle l’exécution est incomplète. Est null si l’exécution n’est pas incomplète. |
Oui | |
modèle | string | Le modèle utilisé par l’Assistant pour cette exécution. | Oui | |
détaillées | string | Instructions utilisées par l’assistant pour cette exécution. | Oui | |
tools | tableau | Liste des outils utilisés par l’assistant pour cette exécution. | Oui | [] |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Oui | |
utilisation | runCompletionUsage | Statistiques d’utilisation relatives à l’exécution. Cette valeur sera null si l’exécution n’est pas dans un état terminal (c’est-à-dire in_progress , queued , etc.). |
Oui | |
température | nombre | La température d’échantillonnage utilisée pour cette exécution. Si elle n’est pas définie, la valeur par défaut est 1. | Non | |
top_p | nombre | La valeur d’échantillonnage du noyau utilisée pour cette exécution. Si elle n’est pas définie, la valeur par défaut est 1. | Non | |
max_prompt_tokens | entier | Nombre maximal de jetons de prompt spécifiés comme ayant été utilisés au cours de l’exécution. |
Oui | |
max_completion_tokens | entier | Nombre maximal de jetons de saisie semi-automatique spécifiés comme ayant été utilisés au cours de l’exécution. |
Oui | |
truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | Oui | |
tool_choice | assistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère un message à la place.auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
Oui | |
parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | Non | True |
response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106 .Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length" , ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Oui |
Propriétés de required_action
type
Nom | Type | Description | Default |
---|---|---|---|
type | string | Pour l’instant, c’est toujours submit_tool_outputs . |
submit_tool_outputs
Nom | Type | Description | Default |
---|---|---|---|
tool_calls | tableau | Une liste des appels d’outil pertinents. |
Propriétés de last_error
code
Nom | Type | Description | Default |
---|---|---|---|
code | string | Un de server_error ou rate_limit_exceeded . |
message
Nom | Type | Description | Default |
---|---|---|---|
message | string | Une description de l’erreur à l’intention des utilisateurs. |
Propriétés de incomplete_details
reason
Nom | Type | Description | Default |
---|---|---|---|
reason | string | La raison pour laquelle l’exécution est incomplète. Cela pointe vers quelle limite de jeton spécifique a été atteinte au cours de l’exécution. |
Énumération d’objet : runObjectType
Valeur | Description |
---|---|
thread.run | Le type d’objet, qui est toujours thread.run |
Énumération d’état : RunObjectStatus
Valeur | Description |
---|---|
queued | L’état de mise en file d’attente |
in_progress | L’état in_progress |
requires_action | L’état required_action |
cancelling | L’état d’annulation |
annulé | L’état annulé |
échec | L’état d’échec |
terminé | L’état terminé. |
expiré | L’état expiré |
createRunRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
assistant_id | string | ID de l’assistant à utiliser pour cette exécution. | Oui | |
modèle | string | L’ID de déploiement du Modèle à utiliser pour cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | Non | |
détaillées | string | Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
additional_instructions | string | Ajoute des instructions supplémentaires à la fin des instructions de l’exécution. Cela est utile pour modifier le comportement lors de chaque exécution sans remplacer d’autres instructions. | Non | |
additional_messages | tableau | Ajoute des messages supplémentaires au thread avant de créer l’exécution. | Non | |
tools | tableau | Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non | |
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
Non | 1 |
flux | booléen | Si true , retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE] . |
Non | |
max_prompt_tokens | entier | Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete . Pour plus d'informations, consultez incomplete_details . |
Non | |
max_completion_tokens | entier | Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete . Pour plus d'informations, consultez incomplete_details . |
Non | |
truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | Non | |
tool_choice | assistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère un message à la place.auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
Non | |
parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | Non | True |
response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106 .Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length" , ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non |
listRunsResponse
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
object | string | Oui | ||
données | tableau | Oui | ||
first_id | string | Oui | ||
last_id | string | Oui | ||
has_more | booléen | Oui |
modifyRunRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non |
submitToolOutputsRunRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
tool_outputs | tableau | Liste des outils pour lesquels les sorties sont envoyées. | Oui | |
flux | booléen | Si true , retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE] . |
Non |
runToolCallObject
Objets d’appel d’outil
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | ID de l’appel de l’outil. Cet ID doit être référencé lorsque vous envoyez les résultats de l’outil en utilisant les résultats de l’outil Envoyer pour exécuter un point de terminaison. | Oui | |
type | string | Type d’appel d’outil pour lequel la sortie est requise. Pour l’instant, c’est toujours function . |
Oui | |
function | object | Définition de fonction. | Oui |
Propriétés de la fonction
name
Nom | Type | Description | Default |
---|---|---|---|
name | chaîne | Nom de la fonction. |
arguments
Nom | Type | Description | Default |
---|---|---|---|
arguments | string | Les arguments que le modèle attend à ce que vous passiez à la fonction. |
Énumération de type : RunToolCallObjectType
Valeur | Description |
---|---|
function |
createThreadAndRunRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
assistant_id | string | ID de l’assistant à utiliser pour cette exécution. | Oui | |
thread | createThreadRequest | Non | ||
modèle | string | Nom de déploiement du modèle à utiliser pour cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | Non | |
détaillées | string | Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
tools | tableau | Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. | Non | |
tool_resources | object | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non | |
température | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
Non | 1 |
top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
Non | 1 |
flux | booléen | Si true , retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE] . |
Non | |
stream_options | chatCompletionStreamOptions | Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true . |
Non | Aucune |
max_prompt_tokens | entier | Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons de prompt spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete . Pour plus d'informations, consultez incomplete_details . |
Non | |
max_completion_tokens | entier | Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution fera le meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete . Pour plus d'informations, consultez incomplete_details . |
Non | |
truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | Non | |
tool_choice | assistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère un message à la place.auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
Non | |
parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | Non | True |
response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106 .Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length" , ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Non |
Propriétés de tool_resources
code_interpreter
Nom | Type | Description | Default |
---|---|---|---|
file_ids | tableau | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
[] |
file_search
Nom | Type | Description | Default |
---|---|---|---|
vector_store_ids | tableau | L’ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant. |
threadObject
Représente un thread qui contient des messages.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Oui | |
object | string | Le type d’objet, qui est toujours thread . |
Oui | |
created_at | entier | L'horodatage Unix (en secondes) de la création du thread. | Oui | |
tool_resources | object | Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Oui | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Oui |
Propriétés de tool_resources
code_interpreter
Nom | Type | Description | Default |
---|---|---|---|
file_ids | tableau | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
[] |
file_search
Nom | Type | Description | Default |
---|---|---|---|
vector_store_ids | tableau | Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread. |
Énumération d’objet : ThreadObjectType
Valeur | Description |
---|---|
thread | Le type d’objet de thread, qui est toujours thread |
createThreadRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
Cloud vers appareil | tableau | Une liste de messages avec lesquels démarrer le fil de discussion. | Non | |
tool_resources | object | Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non |
Propriétés de tool_resources
code_interpreter
Nom | Type | Description | Default |
---|---|---|---|
file_ids | tableau | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
[] |
file_search
Nom | Type | Description | Default |
---|---|---|---|
vector_store_ids | tableau | Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread. |
|
vector_stores | tableau | Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread. |
modifyThreadRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
tool_resources | object | Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non |
Propriétés de tool_resources
code_interpreter
Nom | Type | Description | Default |
---|---|---|---|
file_ids | tableau | Une liste des ID de fichiers mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
[] |
file_search
Nom | Type | Description | Default |
---|---|---|---|
vector_store_ids | tableau | Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread. |
deleteThreadResponse
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Oui | ||
deleted | booléen | Oui | ||
object | string | Oui |
Énumération d’objet : DeleteThreadResponseObjectState
Valeur | Description |
---|---|
thread.deleted | État de l’objet de réponse du thread de suppression, à savoir thread.deleted . |
listThreadsResponse
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
object | string | Oui | ||
données | tableau | Oui | ||
first_id | string | Oui | ||
last_id | string | Oui | ||
has_more | booléen | Oui |
messageObject
Représente un message dans un thread.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Oui | |
object | string | Le type d’objet, qui est toujours thread.message . |
Oui | |
created_at | entier | Horodatage Unix (en secondes) de création du message. | Oui | |
thread_id | string | ID de thread auquel ce message appartient. | Oui | |
statut | string | L’état du message, qui peut être in_progress , incomplete ou completed . |
Oui | |
incomplete_details | object | Sur un message incomplet, détails sur la raison pour laquelle le message est incomplet. | Oui | |
completed_at | entier | Le timestamp Unix (en secondes) lorsque le message s’est terminé. | Oui | |
incomplete_at | entier | Le timestamp Unix (en secondes) lorsque le message a été marqué comme incomplet. | Oui | |
role | string | Entité ayant produit le message. Un de user ou assistant . |
Oui | |
content | tableau | Contenu du message dans le tableau de texte et/ou d’images. | Oui | |
assistant_id | string | Le cas échéant, ID de l’assistant qui a créé ce message. | Oui | |
run_id | string | Le cas échéant, ID de l’exécution associée à la création de ce message. | Oui | |
attachments | tableau | Une liste des fichiers attachés au message et les outils auxquels ils ont été ajoutés. | Oui | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Oui |
Propriétés de incomplete_details
reason
Nom | Type | Description | Default |
---|---|---|---|
reason | string | La raison pour laquelle le message est incomplet. |
Énumération d’objet : MessageObjectType
Valeur | Description |
---|---|
thread.message | Le type d’objet de message, qui est thread.message |
Énumération d’état : MessageObjectStatus
Valeur | Description |
---|---|
in_progress | |
incomplete | |
terminé |
Énumération de rôle : MessageObjectRole
Valeur | Description |
---|---|
utilisateur | |
assistant |
messageDeltaObject
Représente un delta de message, c’est-à-dire les champs modifiés d’un message pendant la diffusion en continu.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur du message qui peut être référencé dans les points de terminaison d’API. | Oui | |
object | string | Le type d’objet, qui est toujours thread.message.delta . |
Oui | |
delta | object | Le delta contenant les champs qui ont été modifiés dans le message. | Oui |
Propriétés de delta
role
Nom | Type | Description | Default |
---|---|---|---|
role | string | Entité ayant produit le message. Un de user ou assistant . |
content
Nom | Type | Description | Default |
---|---|---|---|
content | tableau | Contenu du message dans le tableau de texte et/ou d’images. |
Énumération d’objet : MessageDeltaObjectType
Valeur | Description |
---|---|
thread.message.delta |
createMessageRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
role | string | Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes : - user : indique l’envoi du message par un utilisateur réel, doit être utilisé dans la plupart des cas pour représenter des messages générés par l’utilisateur.- assistant : indique la génération du message par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation. |
Oui | |
content | string | Contenu du message. | Oui | |
attachments | tableau | Une liste des fichiers attachés au message et des outils auxquels ils doivent être ajoutés. | Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non |
Énumération de rôle : CreateMessageRequestRole
Valeur | Description |
---|---|
utilisateur | |
assistant |
modifyMessageRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non |
deleteMessageResponse
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Oui | ||
deleted | booléen | Oui | ||
object | string | Oui |
Énumération d’objet : DeleteMessageResponseObject
Valeur | Description |
---|---|
thread.message.deleted | État de l’objet de réponse du message de suppression |
listMessagesResponse
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
object | string | Oui | ||
données | tableau | Oui | ||
first_id | string | Oui | ||
last_id | string | Oui | ||
has_more | booléen | Oui |
messageContentImageFileObject
Fait référence à un fichier image dans le contenu d’un message.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Toujours image_file . |
Oui | |
image_file | object | Oui |
Propriétés de image_file
file_id
Nom | Type | Description | Default |
---|---|---|---|
file_id | string | L’ID de fichier de l’image dans le contenu du message. |
Énumération de type : MessageContentImageFileObjectType
Valeur | Description |
---|---|
image_file | Le type de fichier image de contenu du message |
messageContentTextObject
Le contenu texte qui fait partie d’un message.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Toujours text . |
Oui | |
texte | object | Oui |
Propriétés de text
valeur
Nom | Type | Description | Default |
---|---|---|---|
value | string | Les données qui composent le texte. |
annotations
Nom | Type | Description | Default |
---|---|---|---|
annotations | tableau |
Énumération de type : messageContentTextObjectType
Valeur | Description |
---|---|
texte | Le type d’objet de texte de contenu du message |
messageContentTextAnnotationsFileCitationObject
Une citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’Assistant ou au message. Généré lorsque l’Assistant utilise l’outil de « retrieval » pour rechercher des fichiers.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Toujours file_citation . |
Oui | |
texte | string | Le texte dans le contenu du message qui doit être remplacé. | Oui | |
file_citation | object | Oui | ||
start_index | entier | Oui | ||
end_index | entier | Oui |
Propriétés de file_citation
file_id
Nom | Type | Description | Default |
---|---|---|---|
file_id | string | L’ID du fichier spécifique à partir duquel provient la citation. |
Énumération de type : FileCitationObjectType
Valeur | Description |
---|---|
file_citation | Le type d’objet de citation de fichier |
messageContentTextAnnotationsFilePathObject
Une URL du fichier généré lorsque l’Assistant a utilisé l’outil code_interpreter
pour générer un fichier.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Toujours file_path . |
Oui | |
texte | string | Le texte dans le contenu du message qui doit être remplacé. | Oui | |
file_path | object | Oui | ||
start_index | entier | Oui | ||
end_index | entier | Oui |
Propriétés de file_path
file_id
Nom | Type | Description | Default |
---|---|---|---|
file_id | string | L’ID du fichier généré. |
Énumération de type : FilePathObjectType
Valeur | Description |
---|---|
file_path | Le type d’objet de chemin de fichier |
messageDeltaContentImageFileObject
Fait référence à un fichier image dans le contenu d’un message.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
index | entier | L’index de la partie contenu dans le message. | Oui | |
type | string | Toujours image_file . |
Oui | |
image_file | object | Non |
Propriétés de image_file
file_id
Nom | Type | Description | Default |
---|---|---|---|
file_id | string | L’ID de fichier de l’image dans le contenu du message. |
Énumération de type : MessageDeltaContentImageFileObjectType
Valeur | Description |
---|---|
image_file |
messageDeltaContentTextObject
Le contenu texte qui fait partie d’un message.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
index | entier | L’index de la partie contenu dans le message. | Oui | |
type | string | Toujours text . |
Oui | |
texte | object | Non |
Propriétés de text
valeur
Nom | Type | Description | Default |
---|---|---|---|
value | string | Les données qui composent le texte. |
annotations
Nom | Type | Description | Default |
---|---|---|---|
annotations | tableau |
Énumération de type : MessageDeltaContentTextObjectType
Valeur | Description |
---|---|
texte |
messageDeltaContentTextAnnotationsFileCitationObject
Une citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’Assistant ou au message. Généré lorsque l’Assistant utilise l’outil « file_search » pour rechercher des fichiers.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
index | entier | L’index de l’annotation dans la partie contenu du texte. | Oui | |
type | string | Toujours file_citation . |
Oui | |
texte | string | Le texte dans le contenu du message qui doit être remplacé. | Non | |
file_citation | object | Non | ||
start_index | entier | Non | ||
end_index | entier | Non |
Propriétés de file_citation
file_id
Nom | Type | Description | Default |
---|---|---|---|
file_id | string | L’ID du fichier spécifique à partir duquel provient la citation. |
quote
Nom | Type | Description | Default |
---|---|---|---|
quote | string | La citation spécifique dans le fichier. |
Énumération de type : MessageDeltaContentTextAnnotationsFileCitationObjectType
Valeur | Description |
---|---|
file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Une URL du fichier généré lorsque l’Assistant a utilisé l’outil code_interpreter
pour générer un fichier.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
index | entier | L’index de l’annotation dans la partie contenu du texte. | Oui | |
type | string | Toujours file_path . |
Oui | |
texte | string | Le texte dans le contenu du message qui doit être remplacé. | Non | |
file_path | object | Non | ||
start_index | entier | Non | ||
end_index | entier | Non |
Propriétés de file_path
file_id
Nom | Type | Description | Default |
---|---|---|---|
file_id | string | L’ID du fichier généré. |
Énumération de type : MessageDeltaContentTextAnnotationsFilePathObjectType
Valeur | Description |
---|---|
file_path |
runStepObject
Représente une étape dans une exécution.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur de l’étape d’exécution qui peut être référencé dans les points de terminaison d’API. | Oui | |
object | string | Le type d’objet, qui est toujours assistant.run.step . |
Oui | |
created_at | entier | Horodatage Unix (en secondes) pour la création de l’étape d’exécution. | Oui | |
assistant_id | string | ID de l’assistant associé à l’étape d’exécution. | Oui | |
thread_id | string | ID du thread qui a été exécuté. | Oui | |
run_id | string | ID de l’exécution dont fait partie cette étape d’exécution. | Oui | |
type | string | Le type d’étape d’exécution, qui peut être message_creation ou tool_calls . |
Oui | |
statut | string | L’état de l’exécution, qui peut être in_progress , cancelled , failed , completed ou expired . |
Oui | |
step_details | runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject | Détails de l’étape d’exécution. | Oui | |
last_error | object | Dernière erreur associée à cette étape d’exécution. Est null en l’absence d’erreurs. |
Oui | |
expired_at | entier | Horodatage Unix (en secondes) de l’expiration de l’étape d’exécution. Une étape est considérée comme expirée si l’exécution parente a expiré. | Oui | |
cancelled_at | entier | Horodatage Unix (en secondes) de l’annulation de l’étape d’exécution. | Oui | |
failed_at | entier | Horodatage Unix (en secondes) de l’échec de l’étape d’exécution. | Oui | |
completed_at | entier | L’horodatage Unix (en secondes) de la réalisation de l’étape d’exécution. | Oui | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Oui |
Propriétés de last_error
code
Nom | Type | Description | Default |
---|---|---|---|
code | string | Un de server_error ou rate_limit_exceeded . |
message
Nom | Type | Description | Default |
---|---|---|---|
message | string | Une description de l’erreur à l’intention des utilisateurs. |
Énumération d’objet : RunStepObjectType
Valeur | Description |
---|---|
assistant.run.step | Type d’objet, qui est toujours assistant.run.step |
Énumération de type : RunStepObjectType
Valeur | Description |
---|---|
message_creation | L’étape d’exécution message_creation |
tool_calls | L’étape d’exécution tool_calls |
Énumération d’état : RunStepObjectStatus
Valeur | Description |
---|---|
in_progress | L’état d’exécution in_progress |
annulé | L’état d’exécution cancelled |
échec | L’état d’exécution cancelled |
terminé | L’état d’exécution cancelled |
expiré | L’état d’exécution cancelled |
runStepDeltaObject
Représente le delta d’une étape d’exécution, c’est-à-dire les champs modifiés d’une étape d’exécution pendant la diffusion en continu.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur de l’étape d’exécution qui peut être référencé dans les points de terminaison d’API. | Oui | |
object | string | Le type d’objet, qui est toujours thread.run.step.delta . |
Oui | |
delta | object | Le delta contenant les champs qui ont été modifiés dans l’étape d’exécution. | Oui |
Propriétés de delta
step_details
Nom | Type | Description | Default |
---|---|---|---|
step_details | runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject | Détails de l’étape d’exécution. |
Énumération d’objet : RunStepDeltaObjectType
Valeur | Description |
---|---|
thread.run.step.delta |
listRunStepsResponse
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
object | string | Oui | ||
données | tableau | Oui | ||
first_id | string | Oui | ||
last_id | string | Oui | ||
has_more | booléen | Oui |
runStepDetailsMessageCreationObject
Détails de la création du message à l’étape d’exécution.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Toujours message_creation . |
Oui | |
message_creation | object | Oui |
Propriétés de message_creation
message_id
Nom | Type | Description | Default |
---|---|---|---|
message_id | string | L’ID du message créé à cette étape d’exécution. |
Énumération de type : RunStepDetailsMessageCreationObjectType
Valeur | Description |
---|---|
message_creation |
runStepDeltaStepDetailsMessageCreationObject
Détails de la création du message à l’étape d’exécution.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Toujours message_creation . |
Oui | |
message_creation | object | Non |
Propriétés de message_creation
message_id
Nom | Type | Description | Default |
---|---|---|---|
message_id | string | L’ID du message créé à cette étape d’exécution. |
Énumération de type : RunStepDeltaStepDetailsMessageCreationObjectType
Valeur | Description |
---|---|
message_creation |
runStepDetailsToolCallsObject
Détails de l’appel d’outil.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Toujours tool_calls . |
Oui | |
tool_calls | tableau | Un tableau d’appels d’outils dans lequel l’étape d’exécution était impliquée. Ils peuvent être associés à l’un des trois types d’outils : code_interpreter , retrieval ou function . |
Oui |
Énumération de type : RunStepDetailsToolCallsObjectType
Valeur | Description |
---|---|
tool_calls |
runStepDeltaStepDetailsToolCallsObject
Détails de l’appel d’outil.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Toujours tool_calls . |
Oui | |
tool_calls | tableau | Un tableau d’appels d’outils dans lequel l’étape d’exécution était impliquée. Ils peuvent être associés à l’un des trois types d’outils : code_interpreter , file_search ou function . |
Non |
Énumération de type : RunStepDeltaStepDetailsToolCallsObjectType
Valeur | Description |
---|---|
tool_calls |
runStepDetailsToolCallsCodeObject
Détails de l’appel de l’outil Interpréteur de code dans lequel l’étape d’exécution était impliquée.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | ID de l’appel de l’outil. | Oui | |
type | string | Le type d’appel d’outil. Cela va toujours être code_interpreter pour ce type d’appel d’outil. |
Oui | |
code_interpreter | object | La définition de l’appel de l’outil Interpréteur de code. | Oui |
Propriétés de code_interpreter
input
Nom | Type | Description | Default |
---|---|---|---|
entrée | string | L’entrée de l’appel de l’outil Interpréteur de code. |
outputs
Nom | Type | Description | Default |
---|---|---|---|
outputs | tableau | Les sorties de l’appel de l’outil Interpréteur de code. L’interpréteur de code peut générer un ou plusieurs éléments, y compris du texte (logs ) ou des images (image ). Chacun d’eux est représenté par un type d’objet différent. |
Énumération de type : RunStepDetailsToolCallsCodeObjectType
Valeur | Description |
---|---|
code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Détails de l’appel de l’outil Interpréteur de code dans lequel l’étape d’exécution était impliquée.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
index | entier | L’index de l’appel d’outil dans le tableau d’appels d’outils. | Oui | |
id | string | ID de l’appel de l’outil. | Non | |
type | string | Le type d’appel d’outil. Cela va toujours être code_interpreter pour ce type d’appel d’outil. |
Oui | |
code_interpreter | object | La définition de l’appel de l’outil Interpréteur de code. | Non |
Propriétés de code_interpreter
input
Nom | Type | Description | Default |
---|---|---|---|
entrée | string | L’entrée de l’appel de l’outil Interpréteur de code. |
outputs
Nom | Type | Description | Default |
---|---|---|---|
outputs | tableau | Les sorties de l’appel de l’outil Interpréteur de code. L’interpréteur de code peut générer un ou plusieurs éléments, y compris du texte (logs ) ou des images (image ). Chacun d’eux est représenté par un type d’objet différent. |
Énumération de type : RunStepDeltaStepDetailsToolCallsCodeObjectType
Valeur | Description |
---|---|
code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
Sortie de texte de l’appel de l’outil Interpréteur de code dans le cadre d’une étape d’exécution.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Toujours logs . |
Oui | |
logs | string | La sortie de texte de l’appel de l’outil Interpréteur de code. | Oui |
Énumération de type : RunStepDetailsToolCallsCodeOutputLogsObjectType
Valeur | Description |
---|---|
logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
Sortie de texte de l’appel de l’outil Interpréteur de code dans le cadre d’une étape d’exécution.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
index | entier | L’index de la sortie dans le tableau de sorties. | Oui | |
type | string | Toujours logs . |
Oui | |
logs | string | La sortie de texte de l’appel de l’outil Interpréteur de code. | Non |
Énumération de type : RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
Valeur | Description |
---|---|
logs |
runStepDetailsToolCallsCodeOutputImageObject
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Toujours image . |
Oui | |
image | object | Oui |
Propriétés de image
file_id
Nom | Type | Description | Default |
---|---|---|---|
file_id | string | L’ID de fichier de l’image. |
Énumération de type : RunStepDetailsToolCallsCodeOutputImageObjectType
Valeur | Description |
---|---|
image |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
index | entier | L’index de la sortie dans le tableau de sorties. | Oui | |
type | string | Toujours image . |
Oui | |
image | object | Non |
Propriétés de image
file_id
Nom | Type | Description | Default |
---|---|---|---|
file_id | string | L’ID de fichier de l’image. |
Énumération de type : RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
Valeur | Description |
---|---|
image |
runStepDetailsToolCallsFileSearchObject
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | L’ID de l’objet d’appel d’outil. | Oui | |
type | string | Le type d’appel d’outil. Cela va toujours être file_search pour ce type d’appel d’outil. |
Oui | |
file_search | object | Pour l’instant, il s’agit toujours d’un objet vide. | Oui |
Énumération de type : RunStepDetailsToolCallsFileSearchObjectType
Valeur | Description |
---|---|
file_search |
runStepDeltaStepDetailsToolCallsFileSearchObject
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
index | entier | L’index de l’appel d’outil dans le tableau d’appels d’outils. | Oui | |
id | string | L’ID de l’objet d’appel d’outil. | Non | |
type | string | Le type d’appel d’outil. Cela va toujours être retrieval pour ce type d’appel d’outil. |
Oui | |
file_search | object | Pour l’instant, il s’agit toujours d’un objet vide. | Oui |
Énumération de type : RunStepDeltaStepDetailsToolCallsFileSearchObjectType
Valeur | Description |
---|---|
file_search |
runStepDetailsToolCallsFunctionObject
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | L’ID de l’objet d’appel d’outil. | Oui | |
type | string | Le type d’appel d’outil. Cela va toujours être function pour ce type d’appel d’outil. |
Oui | |
function | object | La définition de la fonction appelée. | Oui |
Propriétés de la fonction
name
Nom | Type | Description | Default |
---|---|---|---|
name | chaîne | Nom de la fonction. |
arguments
Nom | Type | Description | Default |
---|---|---|---|
arguments | string | Arguments passés à la fonction. |
output
Nom | Type | Description | Default |
---|---|---|---|
output | string | La sortie de la fonction. Cela sera null si les sorties n’ont pas encore été envoyées. |
Énumération de type : RunStepDetailsToolCallsFunctionObjectType
Valeur | Description |
---|---|
function |
runStepDeltaStepDetailsToolCallsFunctionObject
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
index | entier | L’index de l’appel d’outil dans le tableau d’appels d’outils. | Oui | |
id | string | L’ID de l’objet d’appel d’outil. | Non | |
type | string | Le type d’appel d’outil. Cela va toujours être function pour ce type d’appel d’outil. |
Oui | |
function | object | La définition de la fonction appelée. | Non |
Propriétés de la fonction
name
Nom | Type | Description | Default |
---|---|---|---|
name | chaîne | Nom de la fonction. |
arguments
Nom | Type | Description | Default |
---|---|---|---|
arguments | string | Arguments passés à la fonction. |
output
Nom | Type | Description | Default |
---|---|---|---|
output | string | La sortie de la fonction. Cela sera null si les sorties n’ont pas encore été envoyées. |
Énumération de type : RunStepDetailsToolCallsFunctionObjectType
Valeur | Description |
---|---|
function |
vectorStoreExpirationAfter
La stratégie d’expiration d’un magasin de vecteurs.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
ancre | string | Le timestamp d’ancre après lequel la stratégie d’expiration s’applique. Ancres prises en charge : last_active_at . |
Oui | |
jours | entier | Le nombre de jours après l’heure d’ancre correspondant à l’expiration du magasin de vecteurs. | Oui |
Énumération d’ancre : VectorStoreExpirationAfterAnchor
Valeur | Description |
---|---|
last_active_at | Le timestamp d’ancre après lequel la stratégie d’expiration s’applique. |
vectorStoreObject
Un magasin de vecteurs est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search
.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Oui | |
object | enum | Le type d’objet, qui est toujours vector_store .Valeurs possibles : vector_store |
Oui | |
created_at | entier | Le timestamp Unix (en secondes) lorsque le magasin de vecteurs a été créé. | Oui | |
name | chaîne | Le nom du magasin de vecteurs. | Oui | |
usage_bytes | entier | Le nombre total d’octets utilisés par les fichiers dans le magasin de vecteurs. | Oui | |
file_counts | object | Oui | ||
statut | string | L’état du magasin de vecteurs, qui peut être expired , in_progress ou completed . L’état completed indique que le magasin de vecteurs est prêt à être utilisé. |
Oui | |
expires_after | vectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | Non | |
expires_at | entier | Le timestamp Unix (en secondes) lorsque le magasin de vecteurs expirera. | Non | |
last_active_at | entier | Le timestamp Unix (en secondes) lorsque le magasin de vecteurs a été actif pour la dernière fois. | Oui | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Oui |
Propriétés de file_counts
in_progress
Nom | Type | Description | Default |
---|---|---|---|
in_progress | entier | Le nombre de fichiers en cours de traitement. |
terminé
Nom | Type | Description | Default |
---|---|---|---|
terminé | entier | Le nombre de fichiers qui ont été traités avec succès. |
échec
Nom | Type | Description | Default |
---|---|---|---|
échec | entier | Le nombre de fichiers qui n’ont pas pu être traités. |
annulé
Nom | Type | Description | Default |
---|---|---|---|
annulé | entier | Le nombre de fichiers annulés. |
total
Nom | Type | Description | Default |
---|---|---|---|
total | entier | Le nombre total de fichiers. |
Énumération d’état : VectorStoreObjectStatus
Valeur | Description |
---|---|
expiré | |
in_progress | |
terminé |
createVectorStoreRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
file_ids | tableau | Une liste des ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
Non | |
nom | chaîne | Le nom du magasin de vecteurs. | Non | |
expires_after | vectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | Non | |
chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto . Uniquement applicable si le file_ids n’est pas vide. |
Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non |
updateVectorStoreRequest
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
name | chaîne | Le nom du magasin de vecteurs. | Non | |
expires_after | vectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | Non | |
metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Non |
listVectorStoresResponse
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
object | string | Oui | ||
données | tableau | Oui | ||
first_id | string | Oui | ||
last_id | string | Oui | ||
has_more | booléen | Oui |
deleteVectorStoreResponse
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Oui | ||
deleted | booléen | Oui | ||
object | string | Oui |
Énumération d’objet : DeleteVectorStoreResponseObject
Valeur | Description |
---|---|
vector_store.deleted | État de l’objet de réponse de suppression du magasin de vecteurs |
vectorStoreFileObject
Une liste de fichiers attachés à un magasin de vecteurs.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Oui | |
object | string | Le type d’objet, qui est toujours vector_store.file . |
Oui | |
usage_bytes | entier | L’utilisation totale du magasin de vecteurs en octets. Notez qu’elle peut être différente de la taille du fichier d’origine. | Oui | |
created_at | entier | Le timestamp Unix (en secondes) lorsque le fichier de magasin de vecteurs a été créé. | Oui | |
vector_store_id | string | L’ID du magasin de vecteurs auquel le fichier est attaché. | Oui | |
statut | string | L’état du fichier de magasin de vecteurs, qui peut être in_progress , completed , cancelled ou failed . L’état completed indique que le fichier de magasin de vecteurs est prêt à être utilisé. |
Oui | |
last_error | object | La dernière erreur associée à ce fichier de magasin de vecteurs. Est null en l’absence d’erreurs. |
Oui | |
chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto . Uniquement applicable si le file_ids n’est pas vide. |
Non |
Propriétés de last_error
code
Nom | Type | Description | Default |
---|---|---|---|
code | string | Un de server_error ou rate_limit_exceeded . |
message
Nom | Type | Description | Default |
---|---|---|---|
message | string | Une description de l’erreur à l’intention des utilisateurs. |
Énumération d’objet : VectorStoreFileObjectType
Valeur | Description |
---|---|
vector_store.file |
Énumération d’état : VectorStoreFileObjectStatus
Valeur | Description |
---|---|
in_progress | |
terminé | |
annulé | |
échec |
otherChunkingStrategyResponseParam
Cet élément est retourné quand la stratégie de segmentation est inconnue. Généralement, cela est dû au fait que le fichier a été indexé avant l’introduction du concept chunking_strategy
dans l’API.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Toujours other . |
Oui |
type Enum : OtherChunkingStrategyResponseParamType
Valeur | Description |
---|---|
other |
staticChunkingStrategyResponseParam
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | string | Toujours static . |
Oui | |
static | staticChunkingStrategy | Oui |
type Enum : StaticChunkingStrategyResponseParamType
Valeur | Description |
---|---|
static |
staticChunkingStrategy
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
max_chunk_size_tokens | entier | Nombre maximal de jetons dans chaque segmentation. La valeur par défaut est 800 . La valeur minimale est 100 , alors que la valeur maximale est 4096 . |
Oui | |
chunk_overlap_tokens | entier | Nombre de jetons qui se chevauchent entre segmentations. La valeur par défaut est 400 .Notez que le chevauchement ne doit pas excéder la moitié de max_chunk_size_tokens . |
Oui |
autoChunkingStrategyRequestParam
Stratégie par défaut. Cette stratégie utilise actuellement un max_chunk_size_tokens
de 800
et chunk_overlap_tokens
de 400
.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | enum | A toujours la valeur auto .Valeurs possibles : automatique |
Oui |
staticChunkingStrategyRequestParam
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
type | enum | A toujours la valeur static .Valeurs possibles : statique |
Oui | |
static | staticChunkingStrategy | Oui |
chunkingStrategyRequestParam
Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto
.
Ce composant peut être l’un des éléments suivants :
createVectorStoreFileRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
file_id | string | Un ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
Oui | |
chunking_strategy | chunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto . |
Non |
listVectorStoreFilesResponse
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
object | string | Oui | ||
données | tableau | Oui | ||
first_id | string | Oui | ||
last_id | string | Oui | ||
has_more | booléen | Oui |
deleteVectorStoreFileResponse
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Oui | ||
deleted | booléen | Oui | ||
object | string | Oui |
Énumération d’objet : DeleteVectorStoreFileResponseObject
Valeur | Description |
---|---|
vector_store.file.deleted |
vectorStoreFileBatchObject
Un lot de fichiers attaché à un magasin de vecteurs.
Nom | Type | Description | Obligatoire | Default |
---|---|---|---|---|
id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Oui | |
object | string | Le type d’objet, qui est toujours vector_store.file_batch . |
Oui | |
created_at | entier | Le timestamp Unix (en secondes) lorsque le lot de fichiers de magasin de vecteurs a été créé. | Oui | |
vector_store_id | string | L’ID du magasin de vecteurs auquel le fichier est attaché. | Oui | |
statut | string | L’état du lot de fichiers de magasin de vecteurs, qui peut être in_progress , completed , cancelled ou failed . |
Oui | |
file_counts | object | Oui |
Propriétés de file_counts
in_progress
Nom | Type | Description | Default |
---|---|---|---|
in_progress | entier | Le nombre de fichiers en cours de traitement. |
terminé
Nom | Type | Description | Default |
---|---|---|---|
terminé | entier | Le nombre de fichiers qui ont été traités. |
échec
Nom | Type | Description | Default |
---|---|---|---|
échec | entier | Le nombre de fichiers qui n’ont pas pu être traités. |
annulé
Nom | Type | Description | Default |
---|---|---|---|
annulé | entier | Nombre de fichiers annulés. |
total
Nom | Type | Description | Default |
---|---|---|---|
total | entier | Le nombre total de fichiers. |
Énumération d’objet : VectorStoreFileBatchObjectType
Valeur | Description |
---|---|
vector_store.files_batch |
Énumération d’état : VectorStoreFileBatchObjectStatus
Valeur | Description |
---|---|
in_progress | |
terminé | |
annulé | |
échec |
createVectorStoreFileBatchRequest
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
file_ids | tableau | Une liste d’ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
Oui | |
chunking_strategy | chunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto . |
Non |
assistantStreamEvent
Représente un événement émis lors de la diffusion en continu d'une exécution.
Chaque événement d’un flux d’événements envoyés par un serveur a un event
et une propriété data
:
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Nous émettons des événements chaque fois qu’un nouvel objet est créé, qu’il passe à un nouvel état ou qu’il fait l’objet d’un flux partiel (deltas). Par exemple, nous émettons thread.run.created
lorsqu’une nouvelle exécution est créée, thread.run.completed
lorsqu’une exécution est terminée, et ainsi de suite. Lorsqu’un Assistant choisit de créer un message pendant une exécution, nous émettons un thread.message.created event
, un événement thread.message.in_progress
, de nombreux événements thread.message.delta
et enfin un événement thread.message.completed
.
Nous pouvons ajouter des événements supplémentaires au fil du temps. Nous vous recommandons donc de gérer correctement les événements inconnus dans votre code.
Ce composant peut être l’un des éléments suivants :
threadStreamEvent
Ce composant peut être l’un des éléments suivants :
thread.created
Se produit quand une conversation est créée.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | threadObject | Représente un thread qui contient des messages. | Oui |
Données : threadObject
Énumération d’événement : ThreadStreamEventEnum
Valeur | Description |
---|---|
thread.created | L’événement créé par le thread |
runStreamEvent
Ce composant peut être l’un des éléments suivants :
thread.run.created
Se produit quand une exécution est créée.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runObject | Représente une exécution sur un thread. | Oui |
Données : runObject
Énumération d’événement : RunStreamEventCreated
Valeur | Description |
---|---|
thread.run.created |
thread.run.queued
Se produit lorsqu'une exécution passe à l'état queued
.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runObject | Représente une exécution sur un thread. | Oui |
Données : runObject
Énumération d’événement : RunStreamEventQueued
Valeur | Description |
---|---|
thread.run.queued |
thread.run.in_progress
Se produit lorsqu’une exécution passe à l’état in_progress
.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runObject | Représente une exécution sur un thread. | Oui |
Données : runObject
Énumération d’événement : RunStreamEventInProgress
Valeur | Description |
---|---|
thread.run.in_progress |
thread.run.requires_action
Se produit lorsqu'une exécution passe à l'état requires_action
.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runObject | Représente une exécution sur un thread. | Oui |
Données : runObject
Énumération d’événement : RunStreamEventRequiresAction
Valeur | Description |
---|---|
thread.run.requires_action |
thread.run.completed
Se produit quand une exécution est terminée.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runObject | Représente une exécution sur un thread. | Oui |
Données : runObject
Énumération d’événement : RunStreamEventCompleted
Valeur | Description |
---|---|
thread.run.completed |
thread.run.failed
Se produit lorsqu'une exécution échoue.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runObject | Représente une exécution sur un thread. | Oui |
Données : runObject
Énumération d’événement : RunStreamEventFailed
Valeur | Description |
---|---|
thread.run.failed |
thread.run.cancelling
Se produit lorsqu'une exécution passe à l'état cancelling
.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runObject | Représente une exécution sur un thread. | Oui |
Données : runObject
Énumération d’événement : RunStreamEventCancelling
Valeur | Description |
---|---|
thread.run.cancelling |
thread.run.cancelled
Se produit quand une exécution est annulée.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runObject | Représente une exécution sur un thread. | Oui |
Données : runObject
Énumération d’événement : RunStreamEventCancelled
Valeur | Description |
---|---|
thread.run.cancelled |
thread.run.expired
Se produit lorsqu'une exécution expire.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runObject | Représente une exécution sur un thread. | Oui |
Données : runObject
Énumération d’événement : RunStreamEventExpired
Valeur | Description |
---|---|
thread.run.expired |
runStepStreamEvent
Ce composant peut être l’un des éléments suivants :
thread.run.step.created
Se produit lors de la création d'une étape d'exécution.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runStepObject | Représente une étape dans une exécution. |
Oui |
Données : runStepObject
Énumération d’événement : RunStepStreamEventCreated
Valeur | Description |
---|---|
thread.run.step.created |
thread.run.step.in_progress
Se produit lorsqu’une étape d’exécution passe à un état in_progress
.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runStepObject | Représente une étape dans une exécution. |
Oui |
Données : runStepObject
Énumération d’événement : RunStepStreamEventInProgress
Valeur | Description |
---|---|
thread.run.step.in_progress |
thread.run.step.delta
Se produit lorsque des parties d'une étape d'exécution sont diffusées en continu.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runStepDeltaObject | Représente le delta d’une étape d’exécution, c’est-à-dire les champs modifiés d’une étape d’exécution pendant la diffusion en continu. |
Oui |
Données : runStepDeltaObject
Énumération d’événement : RunStepStreamEventDelta
Valeur | Description |
---|---|
thread.run.step.delta |
thread.run.step.completed
Se produit lors de la fin d'une étape d'exécution.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runStepObject | Représente une étape dans une exécution. |
Oui |
Données : runStepObject
Énumération d’événement : RunStepStreamEventCompleted
Valeur | Description |
---|---|
thread.run.step.completed |
thread.run.step.failed
Se produit lors de l’échec d'une étape d'exécution.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runStepObject | Représente une étape dans une exécution. |
Oui |
Données : runStepObject
Énumération d’événement : RunStepStreamEventFailed
Valeur | Description |
---|---|
thread.run.step.failed |
thread.run.step.cancelled
Se produit lors de la fin d'une étape d'annulation.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runStepObject | Représente une étape dans une exécution. |
Oui |
Données : runStepObject
Énumération d’événement : RunStepStreamEventCancelled
Valeur | Description |
---|---|
thread.run.step.cancelled |
thread.run.step.expired
Se produit lors de l’expiration d'une étape d'exécution.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | runStepObject | Représente une étape dans une exécution. |
Oui |
Données : runStepObject
Énumération d’événement : RunStepStreamEventExpired
Valeur | Description |
---|---|
thread.run.step.expired |
messageStreamEvent
Ce composant peut être l’un des éléments suivants :
thread.message.created
Se produit lorsqu'un message est créé.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | messageObject | Représente un message dans un thread. | Oui |
Données : messageObject
Énumération d’événement : MessageStreamEventCreated
Valeur | Description |
---|---|
thread.message.created |
thread.message.in_progress
Se produit lorsqu’un message passe à un état in_progress
.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | messageObject | Représente un message dans un thread. | Oui |
Données : messageObject
Énumération d’événement : MessageStreamEventInProgress
Valeur | Description |
---|---|
thread.message.in_progress |
thread.message.delta
Se produit lorsque des parties d’un message sont diffusées en continu.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | messageDeltaObject | Représente un delta de message, c’est-à-dire les champs modifiés d’un message pendant la diffusion en continu. |
Oui |
Données : messageDeltaObject
Énumération d’événement : MessageStreamEventDelta
Valeur | Description |
---|---|
thread.message.delta |
thread.message.completed
Se produit lorsqu'un message est terminé.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | messageObject | Représente un message dans un thread. | Oui |
Données : messageObject
Énumération d’événement : MessageStreamEventCompleted
Valeur | Description |
---|---|
thread.message.completed |
thread.message.incomplete
Se produit lorsqu’un message s’arrête avant d’être achevé.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | messageObject | Représente un message dans un thread. | Oui |
Données : messageObject
Énumération d’événement : MessageStreamEventIncomplete
Valeur | Description |
---|---|
thread.message.incomplete |
errorEvent
Se produit lorsqu'une erreur a lieu. Cela peut être dû à une erreur interne du serveur ou à un dépassement de délai.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | error | Oui |
Énumération d’événement : ErrorEventEnum
Valeur | Description |
---|---|
error |
doneEvent
Se produit lorsqu'un flux se termine.
Nom | Type | Description | Obligatoire | Par défaut |
---|---|---|---|---|
event | string | Oui | ||
données | string | Oui |
Énumération d’événement : DoneEventEnum
Valeur | Description |
---|---|
done |
Énumération de données : DoneEventDataEnum
Valeur | Description |
---|---|
[TERMINÉ] |
Étapes suivantes
En savoir plus sur les modèles et l’optimisation avec l’API REST. Découvrez-en plus sur les modèles sous-jacents d’Azure OpenAI.