Referencia de la versión preliminar de la API REST del servicio OpenAI de Azure
Artículo
En este artículo se proporcionan detalles sobre los puntos de conexión de la API de REST de inferencia de Azure OpenAI.
Especificaciones de API
La administración e interacción con los modelos y recursos de Azure OpenAI se divide en tres superficies de API principales:
Plano de control
Plano de datos: creación
Plano de datos: inferencia
Cada superficie o especificación de API encapsula un conjunto diferente de funcionalidades de Azure OpenAI. Cada API tiene su propio conjunto único de versiones preliminares y estables o disponibles con carácter general (GA). Las versiones preliminares tienden actualmente a seguir una cadencia mensual.
Azure OpenAI comparte un plano de control común con todos los demás servicios de Azure AI. La API del plano de control se usa para cosas como crear recursos de Azure OpenAI, implementación de modelos y otras tareas de administración de recursos de nivel superior. El plano de control también rige lo que es posible hacer con funcionalidades como Azure Resource Manager, Bicep, Terraform y la CLI de Azure.
La API de inferencia del plano de datos proporciona las funcionalidades o puntos de conexión de inferencia para características como finalizaciones, finalizaciones de chat, incrustaciones, voz o susurro, en los datos, Dall-e, asistentes, etc.
Autenticación
Azure OpenAI proporciona dos métodos de autenticación. Puede usar claves de API o Microsoft Entra ID.
Autenticación con claves de API:: para este tipo de autenticación, todas las solicitudes de API deben incluir la clave de API en el encabezado HTTP api-key. El inicio rápido proporciona una guía sobre cómo realizar llamadas con este tipo de autenticación.
Autenticación de Microsoft Entra ID: puede autenticar una llamada a la API usando un token de Microsoft Entra. Los tokens de autenticación se incluyen en una solicitud como encabezado Authorization. El token proporcionado debe ir precedido de Bearer, por ejemplo Bearer YOUR_AUTH_TOKEN. Puede leer nuestra guía sobre la autenticación con Microsoft Entra ID.
Control de versiones de la API REST
Las API de servicio se versionan mediante el parámetro de consulta api-version. Todas las versiones siguen la estructura de fecha AAAA-MM-DD. Por ejemplo:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferencia del plano de datos
El resto del artículo trata la versión preliminar más reciente de la especificación de inferencia del plano de datos de Azure OpenAI, 2024-10-01-preview. En este artículo se incluye documentación sobre las funcionalidades de versión preliminar más recientes, como asistentes, subprocesos y almacenes de vectores.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-12-01-preview
Crea una finalización para el símbolo del sistema, los parámetros y el modelo elegido proporcionados.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id
path
Sí
string
Identificador de implementación del modelo que se implementó.
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
símbolo del sistema
cadena o matriz
Las indicaciones para generar finalizaciones de codificaciones como una cadena, matriz de cadenas, matriz de tokens o matriz de matrices de tokens.
Tenga en cuenta que <|endoftext|> es el separador de documentos que el modelo ve durante el entrenamiento, por lo que si no se especifica una indicación el modelo generará como si fuera desde el principio de un nuevo documento.
Sí
best_of
integer
Genera finalizaciones best_of del lado del servidor y devuelve la "mejor" (la que tiene la menor probabilidad logarítmica por token). Los resultados no se pueden transmitir.
Cuando se usa con n, best_of controla el número de finalizaciones candidatas y n especifica cuántas devolver: best_of debe ser mayor que n.
Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Úselo cuidadosamente y asegúrese de tener una configuración razonable para max_tokens y stop.
No
1
echo
boolean
Devuelve la solicitud además de la finalización
No
False
frequency_penalty
number
Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente.
No
0
logit_bias
objeto
Modifica la probabilidad de que los tokens especificados aparezcan en la finalización.
Acepta un objeto JSON que asigna tokens (especificados por el ID de token en el tokenizador de GPT) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente.
Como ejemplo, puede pasar {"50256": -100} para evitar que se genere el token <|endoftext|>.
No
Ninguno
logprobs
integer
Incluye las probabilidades logarítmicas en los tokens más probables de logprobs, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devolverá una lista de los cinco tokens más probables. La API siempre devolverá el valor logprob del token muestreado, por lo que puede haber hasta logprobs+1 elementos en la respuesta.
El valor máximo de logprobs es 5.
No
Ninguno
max_tokens
integer
Número máximo de tokens que se pueden generar en la finalización.
El número de tokens de su pregunta más max_tokens no puede exceder la longitud del contexto del modelo.
No
16
n
integer
Cuántas terminaciones generar para cada pregunta.
Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Úselo cuidadosamente y asegúrese de tener una configuración razonable para max_tokens y stop.
No
1
presence_penalty
number
Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas.
No
0
seed
integer
Si se especifica, el sistema realizará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con un mismo seed y parámetros deben devolver el mismo resultado.
No se garantiza el determinismo y debe hacer referencia al parámetro de respuesta system_fingerprint para supervisar los cambios en el back-end.
No
stop
cadena o matriz
Hasta cuatro secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención.
No
flujo
boolean
Si se transmite el progreso parcial. Si se establece, los tokens se enviarán como eventos enviados servidor a medida que estén disponibles, con la secuencia terminada por un mensaje data: [DONE].
No
False
sufijo
string
Sufijo que viene después de completar el texto insertado.
Este parámetro solamente se admite en gpt-3.5-turbo-instruct.
No
Ninguno
temperatura
number
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
Por lo general, recomendamos modificar esto o top_p, pero no ambos.
No
1
top_p
number
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o temperature, pero no ambos.
No
1
usuario
string
Identificador único que representa al usuario final, lo que puede ayudar a supervisar y detectar abusos.
Representa una respuesta de finalización de la API. Nota: Los objetos de respuesta transmitidos y no transmitidos comparten la misma forma (a diferencia del punto de conexión de chat).
Crea una finalización para el símbolo del sistema, los parámetros y el modelo elegido proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-12-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respuestas: Código de estado: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Incrustaciones: crear
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-12-01-preview
Obtenga una representación vectorial de una entrada dada que pueda ser consumida fácilmente por modelos y algoritmos de aprendizaje automático.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id
path
Sí
cadena
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
input
cadena o matriz
Texto de entrada para insertar, codificado como una cadena o matriz de tokens. Para insertar varias entradas en una sola solicitud, pase una matriz de cadenas o matriz de matrices de tokens. La entrada no debe superar el número máximo de tokens de entrada para el modelo (8192 tokens para text-embedding-ada-002), no puede ser una cadena vacía y ninguna matriz debe tener 2048 dimensiones o menos.
Sí
usuario
string
Un identificador único que representa al usuario final, que podría ayudar a supervisar y detectar abusos.
No
input-type
string
tipo de entrada de búsqueda de inserción que se va a usar
No
encoding_format
string
Formato en el que se devuelven las incrustaciones. Puede ser float o base64. Su valor predeterminado es float.
No
dimensiones
integer
Número de dimensiones que deben tener las incrustaciones de salida resultantes. Solo se admite en modelos text-embedding-3 y versiones posteriores.
No
Respuestas
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
objeto
string
Sí
modelo
string
Sí
data
array
Sí
usada
objeto
Sí
Propiedades de uso
prompt_tokens
Nombre
Escribir
Descripción
Valor predeterminado
prompt_tokens
integer
total_tokens
Nombre
Escribir
Descripción
Valor predeterminado
total_tokens
integer
Código de estado: 200
Descripción: OK
Content-Type
Tipo
Descripción
application/json
objeto
Ejemplos
Ejemplo
Devuelve las incrustaciones de un mensaje determinado.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-12-01-preview
{
"input": [
"this is a test"
]
}
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-12-01-preview
Crea una finalización para el mensaje de chat
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id
path
Sí
string
Identificador de implementación del modelo que se implementó.
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
temperatura
number
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
Por lo general, recomendamos modificar esto o top_p, pero no ambos.
No
1
top_p
number
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o temperature, pero no ambos.
No
1
flujo
boolean
Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor solo de datos a medida que estén disponibles, con la transmisión terminada por un mensaje data: [DONE].
No
False
stop
cadena o matriz
Hasta cuatro secuencias en las que la API dejará de generar más tokens.
No
max_tokens
integer
Número máximo de tokens que se pueden generar en la finalización del chat.
La longitud total de los tokens de entrada y los tokens generados está limitado por la longitud de contexto del modelo.
No
max_completion_tokens
integer
Límite superior del número de tokens que se pueden generar para una finalización, incluidos los tokens de razonamiento y los tokens de salida visibles. Esto solo se admite en los modelos de la serie o1. Expandirá la compatibilidad con otros modelos en futuras versiones de API.
No
presence_penalty
number
Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas.
No
0
frequency_penalty
number
Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente.
No
0
logit_bias
objeto
Modifica la probabilidad de que los tokens especificados aparezcan en la finalización.
Acepta un objeto JSON que asigna tokens (especificados por su Id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente.
No
Ninguno
store
boolean
Si desea almacenar o no la salida de esta solicitud de finalización del chat para su uso en nuestros productos de destilación o evaluación de modelos.
No
metadata
objeto
Etiquetas y valores definidos por el desarrollador que se usan para filtrar las finalizaciones en el panel de finalizaciones almacenadas.
No
usuario
string
Identificador único que representa al usuario final, lo que puede ayudar a supervisar y detectar abusos.
No
messages
array
Una lista de mensajes que componen la conversación hasta ahora.
Sí
data_sources
array
Las entradas de configuración de las extensiones de chat de Azure OpenAI que las usan. Esta especificación adicional solo es compatible con Azure OpenAI.
No
reasoning_effort
enum
solo modelos o1
Restringe el esfuerzo en el razonamiento de modelos de razonamiento.
Los valores admitidos actualmente son low, medium y high. Reducir el esfuerzo de razonamiento puede dar lugar a respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta. Valores posibles: bajo, medio, alto
No
logprobs
boolean
Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en el content de message.
No
False
top_logprobs
integer
Entero entre 0 y 20 que especifica el número de tokens más probables que se devolverán en cada posición del token, cada uno con una probabilidad de registro asociada. logprobs debe establecerse en true si se usa este parámetro.
No
n
integer
Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada. Tenga en cuenta que se le cobrará en función del número de tokens generados en todas las opciones. Mantenga n como 1 para minimizar los costos.
Objeto que especifica el formato que debe generar el modelo. Compatible con GPT-4o, GPT-4o mini, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo a partir de gpt-3.5-turbo-1106.
Si se establece en { "type": "json_schema", "json_schema": {...} }, se habilitan las salidas estructuradas, lo que garantiza que el modelo coincidirá con el esquema JSON proporcionado.
La configuración en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo es JSON válido.
Importante: Cuando utilice el modo JSON, también deberá instruir usted mismo al modelo para que produzca JSON a través de un mensaje del sistema o del usuario. Sin esta instrucción, el modelo puede generar una secuencia de espacios en blanco sin fin hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.
No
seed
integer
Esta característica se encuentra en su versión beta. Si se especifica, el sistema realizará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con un mismo seed y parámetros deben devolver el mismo resultado. No se garantiza el determinismo y debe hacer referencia al parámetro de respuesta system_fingerprint para supervisar los cambios en el back-end.
Opciones para la respuesta de streaming. Establezca este valor solo cuando defina stream: true.
No
Ninguno
tools
array
Una lista de herramientas a las que puede llamar el modelo. Actualmente, solo se admiten funciones como una herramienta. Úselo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. Se admite un máximo de 128 funciones.
Controla la herramienta (si existe) a la que llama el modelo. none significa que el modelo no llamará a ninguna herramienta y en su lugar, generará un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas. required significa que el modelo debe llamar a una o varias herramientas. Especificar una herramienta determinada a través de {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta. none es el valor predeterminado cuando no hay herramientas presentes. auto es el valor predeterminado si las herramientas están presentes.
Controla la función (si existe) a la que llama el modelo. none significa que el modelo no llamará a una función, sino que generará un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función. Especificar una función determinada a través de {"name": "my_function"} obliga al modelo a llamar a esa función.
none es el valor predeterminado cuando no hay funciones presentes. auto es el valor predeterminado si hay funciones.
No
functions
array
En desuso en favor de tools.
Una lista de funciones para las que el modelo puede generar entradas JSON.
El contexto de seguridad del usuario contiene varios parámetros que describen la propia aplicación de IA y el usuario final que interactúa con la aplicación de IA. Estos campos ayudan a los equipos de operaciones de seguridad a investigar y mitigar los incidentes de seguridad al proporcionar un enfoque integral para proteger las aplicaciones de inteligencia artificial. Obtenga más información sobre la protección de aplicaciones de inteligencia artificial mediante Microsoft Defender for Cloud.
Crea una finalización para el símbolo del sistema, los parámetros y el modelo elegido proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-12-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Ejemplo
Crea una finalización basada en los datos de Azure Search y la identidad administrada asignada por el sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-12-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Crea una finalización basada en los datos vectoriales de Azure Search, el mensaje del asistente anterior y la identidad administrada asignada por el usuario.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-12-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-12-01-preview
Transcribe el audio en el idioma de entrada.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id
path
Sí
string
Id. de implementación del modelo de susurro.
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Tipo de contenido: varias partes/datos de formulario
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
file
string
Objeto de archivo de audio que se va a transcribir.
Sí
símbolo del sistema
string
Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe coincidir con el idioma del audio.
Temperatura de muestreo, entre 0 y 1. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Si se fija en 0, el modelo utilizará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales.
No
0
language
string
El idioma del audio de entrada. Suministrar la lengua de entrada en formato ISO-639-1 mejorará la precisión y la latencia.
No
timestamp_granularities[]
array
Granularidades de marca de tiempo que se van a rellenar para esta transcripción. response_format debe establecerse en verbose_json para usar granularidades de marca de tiempo. Se admiten una o ambas opciones: word o segment. Nota: no hay ninguna latencia adicional para las marcas de tiempo de segmento, pero la generación de marcas de tiempo de palabra incurre en una latencia adicional.
Texto transcrito en el formato de salida (cuando response_format era uno de texto, vtt o srt).
Ejemplos
Ejemplo
Obtiene texto transcrito y metadatos asociados de los datos de audio hablados proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-12-01-preview
Respuestas: Código de estado: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Ejemplo
Obtiene texto transcrito y metadatos asociados de los datos de audio hablados proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-12-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traducciones: crear
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-12-01-preview
Transcribe y traduce el audio de entrada en texto en inglés.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id
path
Sí
string
Id. de implementación del modelo de susurro que se implementó.
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Tipo de contenido: varias partes/datos de formulario
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
file
string
Archivo de audio que se va a traducir.
Sí
símbolo del sistema
string
Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe estar en inglés.
Temperatura de muestreo, entre 0 y 1. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Si se fija en 0, el modelo utilizará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales.
Texto transcrito en el formato de salida (cuando response_format era uno de texto, vtt o srt).
Ejemplos
Ejemplo
Obtiene el texto transcrito en inglés y los metadatos asociados de los datos de audio hablados proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-12-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Ejemplo
Obtiene el texto transcrito en inglés y los metadatos asociados de los datos de audio hablados proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-12-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Voz: Create
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-12-01-preview
Genera audio a partir del texto de entrada.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id
path
Sí
string
Id. de implementación del modelo de tts que se implementó.
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Tipo de contenido: varias partes/datos de formulario
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
input
string
Texto para el que se va a sintetizar el audio. La longitud máxima es de 4096 caracteres.
Sí
voice
enum
Voz que se va a usar para la síntesis de voz. Valores posibles: aleación, eco, fable, onyx, nova, shimmer
Sí
response_format
enum
Formato en el que se sintetiza el audio. Valores posibles: mp3, opus, aac, flac, wav, pcm
No
velocidad
number
Velocidad del audio sintetizado. Seleccione un valor de 0.25 a 4.0. 1.0 es el valor predeterminado.
No
1.0
Respuestas
Código de estado: 200
Descripción: OK
Content-Type
Tipo
Descripción
application/octet-stream
string
Ejemplos
Ejemplo
Sintetiza el audio del texto proporcionado.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-12-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Respuestas: Código de estado: 200
{
"body": "101010101"
}
Generaciones de imágenes: crear
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-12-01-preview
Genera un lote de imágenes a partir de una descripción de texto en una determinada implementación de modelo DALLE
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id
path
Sí
string
Id. de implementación del modelo de DALL-E que se ha implementado.
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
símbolo del sistema
string
Descripción de texto de las imágenes deseadas. La longitud máxima es de 4000 caracteres.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-12-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
GET https://{endpoint}/openai/assistants?api-version=2024-12-01-preview
Devuelve una lista de archivos del asistente.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
GET https://{endpoint}/openai/assistants?api-version=2024-12-01-preview
Respuestas: Código de estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Crear archivo del asistente
POST https://{endpoint}/openai/assistants?api-version=2024-12-01-preview
Cree un asistente con un modelo e instrucciones.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
model
Sí
nombre
string
Nombre del asistente. La longitud máxima es de 256 caracteres.
No
descripción
string
Descripción del asistente. La longitud máxima es de 512 caracteres.
No
detalladas
string
Las instrucciones del sistema que usa el asistente. La longitud máxima es de 256 000 caracteres.
No
tools
array
Lista de herramientas habilitadas en el asistente. Puede haber un máximo de 128 herramientas por asistente. Las herramientas pueden ser de tipos code_interpreter, retrieval o function.
No
[]
tool_resources
objeto
Conjunto de recursos que usan las herramientas del asistente. Los recursos son específicos del tipo de herramienta. Por ejemplo, la herramienta code_interpreter requiere una lista de identificadores de archivo, mientras que la file_search herramienta requiere una lista de identificadores de almacén de vectores.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
temperatura
number
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
No
1
top_p
number
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o la temperatura, pero no ambos.
Especifica el formato que debe generar el modelo. Compatible con los modelos GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.
Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado. Obtenga más información en la guía de salidas estructuradas.
Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo sea JSON válido.
Importante: Cuando utilice el modo JSON, también deberá instruir usted mismo al modelo para que produzca JSON a través de un mensaje del sistema o del usuario. Sin esta instrucción, el modelo puede generar una secuencia de espacios en blanco sin fin hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.
No
Propiedades de tool_resources
code_interpreter
Nombre
Escribir
Descripción
Valor predeterminado
file_ids
array
Lista de identificadores de archivo disponibles para la herramienta code_interpreter. Puede haber un máximo de 20 archivos asociados con la herramienta.
[]
file_search
Nombre
Escribir
Descripción
Valor predeterminado
vector_store_ids
array
El almacén de vectores adjunto a este asistente. Puede haber un máximo de un almacén de vectores asociado al asistente.
vector_stores
array
Asistente para crear un almacén de vectores con file_ids y adjuntarlo a este asistente. Puede haber un máximo de un almacén de vectores asociado al asistente.
Representa un assistant que puede llamar al modelo y usar herramientas.
Ejemplos
Ejemplo
Cree un asistente con un modelo e instrucciones.
POST https://{endpoint}/openai/assistants?api-version=2024-12-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Respuestas: Código de estado: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Obtener: Asistente
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-12-01-preview
Recupera un asistente.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
Representa un assistant que puede llamar al modelo y usar herramientas.
Ejemplos
Ejemplo
Recupera un asistente.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-12-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modificar - asistente
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-12-01-preview
Modifica un asistente.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id
path
Sí
cadena
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
model
No
name
string
Nombre del asistente. La longitud máxima es de 256 caracteres.
No
descripción
string
Descripción del asistente. La longitud máxima es de 512 caracteres.
No
detalladas
string
Las instrucciones del sistema que usa el asistente. La longitud máxima es de 32 768 caracteres.
No
tools
array
Lista de herramientas habilitadas en el asistente. Puede haber un máximo de 128 herramientas por asistente. Las herramientas pueden ser de tipos code_interpreter, retrieval o function.
No
[]
tool_resources
objeto
Conjunto de recursos que usan las herramientas del asistente. Los recursos son específicos del tipo de herramienta. Por ejemplo, la herramienta code_interpreter requiere una lista de identificadores de archivo, mientras que la file_search herramienta requiere una lista de identificadores de almacén de vectores.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
temperatura
number
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
No
1
top_p
number
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o la temperatura, pero no ambos.
Especifica el formato que debe generar el modelo. Compatible con los modelos GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.
Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado. Obtenga más información en la guía de salidas estructuradas.
Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo sea JSON válido.
Importante: Cuando utilice el modo JSON, también deberá instruir usted mismo al modelo para que produzca JSON a través de un mensaje del sistema o del usuario. Sin esta instrucción, el modelo puede generar una secuencia de espacios en blanco sin fin hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.
No
Propiedades de tool_resources
code_interpreter
Nombre
Escribir
Descripción
Valor predeterminado
file_ids
array
Invalida la lista de identificadores de archivo que están disponibles para la herramienta code_interpreter. Puede haber un máximo de 20 archivos asociados con la herramienta.
[]
file_search
Nombre
Escribir
Descripción
Valor predeterminado
vector_store_ids
array
Invalida el almacén de vectores adjunto a este asistente. Puede haber un máximo de un almacén de vectores asociado al asistente.
Representa un assistant que puede llamar al modelo y usar herramientas.
Ejemplos
Ejemplo
Modifica un asistente.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-12-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Respuestas: Código de estado: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
POST https://{endpoint}/openai/threads?api-version=2024-12-01-preview
Cree un subproceso.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
messages
array
Lista de mensajes con los que iniciar el subproceso.
No
tool_resources
objeto
Conjunto de recursos que están disponibles para las herramientas del asistente en este subproceso. Los recursos son específicos del tipo de herramienta. Por ejemplo, la herramienta code_interpreter requiere una lista de identificadores de archivo, mientras que la file_search herramienta requiere una lista de identificadores de almacén de vectores.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
Propiedades de tool_resources
code_interpreter
Nombre
Escribir
Descripción
Valor predeterminado
file_ids
array
Lista de identificadores de archivo disponibles para la herramienta code_interpreter. Puede haber un máximo de 20 archivos asociados con la herramienta.
[]
file_search
Nombre
Escribir
Descripción
Valor predeterminado
vector_store_ids
array
Almacén de vectores adjunto a este subproceso. Puede haber un máximo de un almacén de vectores conectado al subproceso.
vector_stores
array
Asistente para crear un almacén de vectores con file_ids y adjuntarlo a este subproceso. Puede haber un máximo de un almacén de vectores conectado al subproceso.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-12-01-preview
Recupera un subproceso.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-12-01-preview
Modifica un subproceso.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id
path
Sí
cadena
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
tool_resources
objeto
Conjunto de recursos que están disponibles para las herramientas del asistente en este subproceso. Los recursos son específicos del tipo de herramienta. Por ejemplo, la herramienta code_interpreter requiere una lista de identificadores de archivo, mientras que la file_search herramienta requiere una lista de identificadores de almacén de vectores.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
Propiedades de tool_resources
code_interpreter
Nombre
Escribir
Descripción
Valor predeterminado
file_ids
array
Lista de identificadores de archivo disponibles para la code_interpreter herramienta. Puede haber un máximo de 20 archivos asociados con la herramienta.
[]
file_search
Nombre
Escribir
Descripción
Valor predeterminado
vector_store_ids
array
Almacén de vectores adjunto a este subproceso. Puede haber un máximo de un almacén de vectores conectado al subproceso.
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-12-01-preview
Devuelve una lista de mensajes para un subproceso determinado.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-12-01-preview
Crear un mensaje.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id
path
Sí
cadena
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
rol
string
Rol de la entidad que está creando el mensaje. Los valores permitidos son: - user: indica que un usuario real envía el mensaje y se debe usar en la mayoría de los casos para representar mensajes generados por el usuario. - assistant: indica que el asistente genera el mensaje. Use este valor para insertar mensajes del asistente en la conversación.
Sí
content
string
Contenido del mensaje.
Sí
datos adjuntos
array
Lista de archivos adjuntos al mensaje y a las herramientas a las que se deben agregar.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-12-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Respuestas: Código de estado: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Obtener - mensaje
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-12-01-preview
Recuperar un mensaje.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-12-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modificar mensaje
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-12-01-preview
Modifica un mensaje.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id
path
Sí
string
message_id
path
Sí
cadena
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
POST https://{endpoint}/openai/threads/runs?api-version=2024-12-01-preview
Cree un subproceso y ejecútelo en una solicitud.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
assistant_id
string
Identificador del asistente que se va a usar para ejecutar esta ejecución.
Identificador del modelo que se va a usar para ejecutar esta ejecución. Si se proporciona un valor aquí, invalidará el nombre de la implementación de modelo asociado al asistente. Si no es así, se usará el modelo asociado al asistente.
No
detalladas
string
Invalidar el mensaje predeterminado del sistema del asistente. Esto resulta útil para modificar el comportamiento por ejecución.
No
tools
array
Invalide las herramientas que el asistente puede usar para esta ejecución. Esto resulta útil para modificar el comportamiento por ejecución.
No
tool_resources
objeto
Conjunto de recursos que usan las herramientas del asistente. Los recursos son específicos del tipo de herramienta. Por ejemplo, la herramienta code_interpreter requiere una lista de identificadores de archivo, mientras que la file_search herramienta requiere una lista de identificadores de almacén de vectores.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
temperatura
number
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
No
1
top_p
number
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o la temperatura, pero no ambos.
No
1
flujo
boolean
Si true, devuelve una secuencia de eventos que se producen durante los eventos enviados por el servidor, finalizando cuando la ejecución entra en un estado de terminal con un data: [DONE] mensaje.
Opciones para la respuesta de streaming. Establezca este valor solo cuando defina stream: true.
No
Ninguno
max_prompt_tokens
integer
Número máximo de tokens de solicitud que se pueden usar durante el transcurso de la ejecución. La ejecución hará un mejor esfuerzo para usar solo el número de tokens de solicitud especificados, en varios turnos de la ejecución. Si la ejecución supera el número de tokens de solicitud especificados, la ejecución finalizará con el estado incomplete. Consulte incomplete_details para obtener más información.
No
max_completion_tokens
integer
Número máximo de tokens de finalización que se pueden usar durante el transcurso de la ejecución. La ejecución hará un mejor esfuerzo para usar solo el número de tokens de finalización especificados, en varios turnos de la ejecución. Si la ejecución supera el número de tokens de finalización especificados, la ejecución finalizará con el estado incomplete. Consulte incomplete_details para obtener más información.
Controla la herramienta (si existe) a la que llama el modelo. none significa que el modelo no llamará a ninguna herramienta, sino que generará un mensaje. auto es el valor predeterminado y significa que el modelo puede elegir entre generar un mensaje o llamar a una herramienta. Especificar una función determinada como {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta.
Especifica el formato que debe generar el modelo. Compatible con los modelos GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.
Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado. Obtenga más información en la guía de salidas estructuradas.
Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo sea JSON válido.
Importante: Cuando utilice el modo JSON, también deberá instruir usted mismo al modelo para que produzca JSON a través de un mensaje del sistema o del usuario. Sin esta instrucción, el modelo puede generar una secuencia de espacios en blanco sin fin hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.
No
Propiedades de tool_resources
code_interpreter
Nombre
Escribir
Descripción
Valor predeterminado
file_ids
array
Lista de identificadores de archivo disponibles para la herramienta code_interpreter. Puede haber un máximo de 20 archivos asociados con la herramienta.
[]
file_search
Nombre
Escribir
Descripción
Valor predeterminado
vector_store_ids
array
Identificador del almacén de vectores adjunto a este asistente. Puede haber un máximo de un almacén de vectores asociado al asistente.
Representa una ejecución de ejecución en un subproceso.
Ejemplos
Ejemplo
Cree un subproceso y ejecútelo en una solicitud.
POST https://{endpoint}/openai/threads/runs?api-version=2024-12-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-12-01-preview
Devuelve una lista de ejecuciones que pertenecen a un subproceso.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-12-01-preview
Crear una ejecución.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id
path
Sí
string
include[]
query
No
array
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
assistant_id
string
Identificador del asistente que se va a usar para ejecutar esta ejecución.
Sí
modelo
string
Identificador del modelo que se va a usar para ejecutar esta ejecución. Si se proporciona un valor aquí, invalidará el nombre de la implementación de modelo asociado al asistente. Si no es así, se usará el modelo asociado al asistente.
No
detalladas
string
Invalidar el mensaje predeterminado del sistema del asistente. Esto resulta útil para modificar el comportamiento por ejecución.
No
additional_instructions
string
Anexa instrucciones adicionales al final de las instrucciones para la ejecución. Esto resulta útil para modificar el comportamiento por ejecución sin invalidar otras instrucciones.
No
additional_messages
array
Agrega mensajes adicionales al subproceso antes de crear la ejecución.
No
tools
array
Invalide las herramientas que el asistente puede usar para esta ejecución. Esto resulta útil para modificar el comportamiento por ejecución.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
temperatura
number
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
No
1
top_p
number
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o la temperatura, pero no ambos.
No
1
flujo
boolean
Si true, devuelve una secuencia de eventos que se producen durante los eventos enviados por el servidor, finalizando cuando la ejecución entra en un estado de terminal con un data: [DONE] mensaje.
No
max_prompt_tokens
integer
Número máximo de tokens de solicitud que se pueden usar durante el transcurso de la ejecución. La ejecución hará un mejor esfuerzo para usar solo el número de tokens de solicitud especificados, en varios turnos de la ejecución. Si la ejecución supera el número de tokens de solicitud especificados, la ejecución finalizará con el estado incomplete. Consulte incomplete_details para obtener más información.
No
max_completion_tokens
integer
Número máximo de tokens de finalización que se pueden usar durante el transcurso de la ejecución. La ejecución hará un mejor esfuerzo para usar solo el número de tokens de finalización especificados, en varios turnos de la ejecución. Si la ejecución supera el número de tokens de finalización especificados, la ejecución finalizará con el estado incomplete. Consulte incomplete_details para obtener más información.
Controla la herramienta (si existe) a la que llama el modelo. none significa que el modelo no llamará a ninguna herramienta, sino que generará un mensaje. auto es el valor predeterminado y significa que el modelo puede elegir entre generar un mensaje o llamar a una herramienta. Especificar una función determinada como {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta.
Especifica el formato que debe generar el modelo. Compatible con los modelos GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.
Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado. Obtenga más información en la guía de salidas estructuradas.
Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo sea JSON válido.
Importante: Cuando utilice el modo JSON, también deberá instruir usted mismo al modelo para que produzca JSON a través de un mensaje del sistema o del usuario. Sin esta instrucción, el modelo puede generar una secuencia de espacios en blanco sin fin hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-12-01-preview
Recupera una ejecución.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
Representa una ejecución de ejecución en un subproceso.
Ejemplos
Ejemplo
Obtiene una ejecución.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-12-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modificar ejecución
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-12-01-preview
Modifica una ejecución.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id
path
Sí
string
run_id
path
Sí
cadena
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-12-01-preview
Cuando una ejecución tiene status: "requires_action" y required_action.type es submit_tool_outputs, este punto de conexión se puede usar para enviar las salidas de las llamadas a la herramienta una vez que se completan. Todas las salidas deben enviarse en una sola solicitud.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id
path
Sí
string
run_id
path
Sí
cadena
api-version
consulta
Sí
string
Versión de API
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
tool_outputs
array
Lista de herramientas para las que se envían las salidas.
Sí
flujo
boolean
Si true, devuelve una secuencia de eventos que se producen durante los eventos enviados por el servidor, finalizando cuando la ejecución entra en un estado de terminal con un data: [DONE] mensaje.
Representa una ejecución de ejecución en un subproceso.
Ejemplos
Ejemplo
Cuando una ejecución tiene status: "requires_action" y required_action.type es submit_tool_outputs, este punto de conexión se puede usar para enviar las salidas de las llamadas a la herramienta una vez que se completan. Todas las salidas deben enviarse en una sola solicitud.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-12-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-12-01-preview
Cancela una ejecución que es in_progress.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-12-01-preview
Devuelve una lista de pasos que pertenecen a una ejecución.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-12-01-preview
Recupera un paso de ejecución.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
GET https://{endpoint}/openai/vector_stores?api-version=2024-12-01-preview
Devuelve una lista de almacenes vectoriales.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
POST https://{endpoint}/openai/vector_stores?api-version=2024-12-01-preview
Creación de un almacén de vectores.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version
consulta
Sí
string
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
file_ids
array
Lista de identificadores de archivo que debe usar el almacén de vectores. Útil para herramientas como file_search que pueden tener acceso a archivos.
Estrategia de fragmentación usada para fragmentar los archivos. Si no se establece, usará la estrategia auto. Solo es aplicable si file_ids no está vacío.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-12-01-preview
Recupera un almacén de vectores.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-12-01-preview
Modifica un almacén de vectores.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
Directiva de expiración de un almacén de vectores.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-12-01-preview
Devuelve una lista de archivos de almacén de vectores.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-12-01-preview
Crea un archivo de almacén de vectores adjuntando un archivo a un almacén de vectores.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id
path
Sí
cadena
api-version
consulta
Sí
string
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
file_id
string
Identificador de archivo que debe usar el almacén de vectores. Útil para herramientas como file_search que pueden tener acceso a archivos.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-12-01-preview
Recupera un archivo de almacén de vectores.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
Elimine un archivo de almacén de vectores. Esto quitará el archivo del almacén de vectores, pero el propio archivo no se eliminará. Para eliminar el archivo, use el punto de conexión eliminar archivo.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
Elimine un archivo de almacén de vectores. Esto quitará el archivo del almacén de vectores, pero el propio archivo no se eliminará. Para eliminar el archivo, use el punto de conexión eliminar archivo.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-12-01-preview
Cree un lote de archivos de almacén vectorial.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id
path
Sí
cadena
api-version
consulta
Sí
string
Encabezado de solicitud
Nombre
Obligatorio
Type
Descripción
api-key
True
string
Proporcione la clave de API de Azure OpenAI aquí
Cuerpo de la solicitud
Content-Type: application/json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
file_ids
array
Lista de identificadores de archivo que debe usar el almacén de vectores. Útil para herramientas como file_search que pueden tener acceso a archivos.
Obtener: lotes de archivos del almacén de vectores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-12-01-preview
Recupera un lote de archivos de almacén de vectores.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
Cancelar: lotes de archivos del almacén de vectores
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-12-01-preview
Cancelar un lote de archivos de almacén de vectores. Esto intenta cancelar el procesamiento de archivos en este lote lo antes posible.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
Lista: archivos por lotes de archivos de almacén vectorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-12-01-preview
Devuelve una lista de archivos de almacén de vectores en un lote.
Parámetros de identificador URI
Nombre
En
Obligatorio
Type
Descripción
endpoint
path
Sí
string dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.
No
innerErrorCode
Códigos de error para el objeto de error interno.
Descripción: códigos de error para el objeto de error interno.
Tipo: string
Valor predeterminado:
Nombre de enumeración: InnerErrorCode
Valores de enumeración:
Valor
Descripción
ResponsibleAIPolicyViolation
El mensaje infringía una de las reglas de filtro de contenido.
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.
No
revised_prompt
string
Mensaje que se usó para generar la imagen, si se ha producido alguna revisión en el símbolo del sistema.
No
contentFilterCompletionTextSpan
Describe un intervalo dentro del texto de finalización generado. El desplazamiento 0 es el primer punto de código UTF32 del texto de finalización.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
completion_start_offset
integer
Desplazamiento del punto de código UTF32 que comienza el intervalo.
Sí
completion_end_offset
integer
Desplazamiento del primer punto de código UTF32 que se excluye del intervalo. Este campo siempre es igual a completion_start_offset para intervalos vacíos. Este campo siempre es mayor que completion_start_offset para intervalos no vacíos.
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre texto de terceros y palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.
No
promptFilterResults
Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes.
No hay propiedades definidas para este componente.
dalleContentFilterResults
Información sobre los resultados del filtrado de contenido.
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.
Resultados de filtrado de contenido con un detalle de los identificadores de filtro de contenido para los segmentos filtrados.
No
chatCompletionsRequestCommon
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
temperatura
number
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Por lo general, recomendamos modificar esto o top_p, pero no ambos.
No
1
top_p
number
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior. Por lo general, recomendamos modificar esto o temperature, pero no ambos.
No
1
flujo
boolean
Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de sólo datos a medida que estén disponibles, y el flujo terminará con un mensaje de data: [DONE].
No
False
stop
cadena o matriz
Hasta cuatro secuencias en las que la API dejará de generar más tokens.
No
max_tokens
integer
Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4.96: tokens de aviso). Esto no es compatible con los modelos de la serie o1.
No
4 096
max_completion_tokens
integer
Límite superior del número de tokens que se pueden generar para una finalización, incluidos los tokens de razonamiento y los tokens de salida visibles. Esto solo se admite en los modelos de la serie o1. Expandirá la compatibilidad con otros modelos en futuras versiones de API.
No
presence_penalty
number
Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas.
No
0
frequency_penalty
number
Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente.
No
0
logit_bias
objeto
Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto JSON que asignará tokens (especificados por su id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente.
No
store
boolean
Si desea almacenar o no la salida de esta solicitud de finalización del chat para su uso en nuestros productos de destilación o evaluación de modelos.
No
metadata
objeto
Etiquetas y valores definidos por el desarrollador que se usan para filtrar las finalizaciones en el panel de finalizaciones almacenadas.
No
usuario
string
Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos.
No
createCompletionRequest
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
símbolo del sistema
cadena o matriz
Las indicaciones para generar finalizaciones de codificaciones como una cadena, matriz de cadenas, matriz de tokens o matriz de matrices de tokens.
Tenga en cuenta que <|endoftext|> es el separador de documentos que el modelo ve durante el entrenamiento, por lo que si no se especifica una indicación el modelo generará como si fuera desde el principio de un nuevo documento.
Sí
best_of
integer
Genera finalizaciones best_of del lado del servidor y devuelve la "mejor" (la que tiene la menor probabilidad logarítmica por token). Los resultados no se pueden transmitir.
Cuando se usa con n, best_of controla el número de finalizaciones candidatas y n especifica cuántas devolver: best_of debe ser mayor que n.
Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Úselo cuidadosamente y asegúrese de tener una configuración razonable para max_tokens y stop.
No
1
echo
boolean
Devuelve la solicitud además de la finalización
No
False
frequency_penalty
number
Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente.
No
0
logit_bias
objeto
Modifica la probabilidad de que los tokens especificados aparezcan en la finalización.
Acepta un objeto JSON que asigna tokens (especificados por el ID de token en el tokenizador de GPT) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente.
Como ejemplo, puede pasar {"50256": -100} para evitar que se genere el token <|endoftext|>.
No
Ninguno
logprobs
integer
Incluye las probabilidades logarítmicas en los tokens más probables de logprobs, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devolverá una lista de los cinco tokens más probables. La API siempre devolverá el valor logprob del token muestreado, por lo que puede haber hasta logprobs+1 elementos en la respuesta.
El valor máximo de logprobs es 5.
No
Ninguno
max_tokens
integer
Número máximo de tokens que se pueden generar en la finalización.
El número de tokens de su pregunta más max_tokens no puede exceder la longitud del contexto del modelo.
No
16
n
integer
Cuántas terminaciones generar para cada pregunta.
Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Úselo cuidadosamente y asegúrese de tener una configuración razonable para max_tokens y stop.
No
1
presence_penalty
number
Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas.
No
0
seed
integer
Si se especifica, el sistema realizará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con un mismo seed y parámetros deben devolver el mismo resultado.
No se garantiza el determinismo y debe hacer referencia al parámetro de respuesta system_fingerprint para supervisar los cambios en el back-end.
No
stop
cadena o matriz
Hasta cuatro secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención.
No
flujo
boolean
Si se transmite el progreso parcial. Si se establece, los tokens se enviarán como eventos enviados servidor a medida que estén disponibles, con la secuencia terminada por un mensaje data: [DONE].
No
False
sufijo
string
Sufijo que viene después de completar el texto insertado.
Este parámetro solamente se admite en gpt-3.5-turbo-instruct.
No
Ninguno
temperatura
number
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
Por lo general, recomendamos modificar esto o top_p, pero no ambos.
No
1
top_p
number
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o temperature, pero no ambos.
No
1
usuario
string
Identificador único que representa al usuario final, lo que puede ayudar a supervisar y detectar abusos.
No
createCompletionResponse
Representa una respuesta de finalización de la API. Nota: Los objetos de respuesta transmitidos y no transmitidos comparten la misma forma (a diferencia del punto de conexión de chat).
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador único para la finalización.
Sí
opciones
array
La lista de opciones de finalización que el modelo generó para el mensaje de entrada.
Sí
created
integer
Marca de tiempo de Unix (en segundos) de cuando se creó la finalización.
Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes.
No
system_fingerprint
string
Esta huella digital representa la configuración de back-end con la que se ejecuta el modelo.
Se puede usar junto con el parámetro de solicitud seed para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo.
No
objeto
enum
Tipo de objeto, que siempre es "text_completion" Valores posibles: text_completion
Estadísticas de uso de la solicitud de finalización.
No
CreateChatCompletionRequest
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
temperatura
number
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
Por lo general, recomendamos modificar esto o top_p, pero no ambos.
No
1
top_p
number
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o temperature, pero no ambos.
No
1
flujo
boolean
Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor solo de datos a medida que estén disponibles, con la transmisión terminada por un mensaje data: [DONE].
No
False
stop
cadena o matriz
Hasta cuatro secuencias en las que la API dejará de generar más tokens.
No
max_tokens
integer
Número máximo de tokens que se pueden generar en la finalización del chat.
La longitud total de los tokens de entrada y los tokens generados está limitado por la longitud de contexto del modelo.
No
max_completion_tokens
integer
Límite superior del número de tokens que se pueden generar para una finalización, incluidos los tokens de razonamiento y los tokens de salida visibles. Esto solo se admite en los modelos de la serie o1. Expandirá la compatibilidad con otros modelos en futuras versiones de API.
No
presence_penalty
number
Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas.
No
0
frequency_penalty
number
Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente.
No
0
logit_bias
objeto
Modifica la probabilidad de que los tokens especificados aparezcan en la finalización.
Acepta un objeto JSON que asigna tokens (especificados por su Id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente.
No
Ninguno
store
boolean
Si desea almacenar o no la salida de esta solicitud de finalización del chat para su uso en nuestros productos de destilación o evaluación de modelos.
No
metadata
objeto
Etiquetas y valores definidos por el desarrollador que se usan para filtrar las finalizaciones en el panel de finalizaciones almacenadas.
No
usuario
string
Identificador único que representa al usuario final, lo que puede ayudar a supervisar y detectar abusos.
No
messages
array
Una lista de mensajes que componen la conversación hasta ahora.
Sí
data_sources
array
Las entradas de configuración de las extensiones de chat de Azure OpenAI que las usan. Esta especificación adicional solo es compatible con Azure OpenAI.
No
reasoning_effort
enum
solo modelos o1
Restringe el esfuerzo en el razonamiento de modelos de razonamiento.
Los valores admitidos actualmente son low, medium y high. Reducir el esfuerzo de razonamiento puede dar lugar a respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta. Valores posibles: bajo, medio, alto
No
logprobs
boolean
Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en el content de message.
No
False
top_logprobs
integer
Entero entre 0 y 20 que especifica el número de tokens más probables que se devolverán en cada posición del token, cada uno con una probabilidad de registro asociada. logprobs debe establecerse en true si se usa este parámetro.
No
n
integer
Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada. Tenga en cuenta que se le cobrará en función del número de tokens generados en todas las opciones. Mantenga n como 1 para minimizar los costos.
Objeto que especifica el formato que debe generar el modelo. Compatible con GPT-4o, GPT-4o mini, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo a partir de gpt-3.5-turbo-1106.
Si se establece en { "type": "json_schema", "json_schema": {...} }, se habilitan las salidas estructuradas, lo que garantiza que el modelo coincidirá con el esquema JSON proporcionado.
La configuración en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo es JSON válido.
Importante: Cuando utilice el modo JSON, también deberá instruir usted mismo al modelo para que produzca JSON a través de un mensaje del sistema o del usuario. Sin esta instrucción, el modelo puede generar una secuencia de espacios en blanco sin fin hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.
No
seed
integer
Esta característica se encuentra en su versión beta. Si se especifica, el sistema realizará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con un mismo seed y parámetros deben devolver el mismo resultado. No se garantiza el determinismo y debe hacer referencia al parámetro de respuesta system_fingerprint para supervisar los cambios en el back-end.
Opciones para la respuesta de streaming. Establezca este valor solo cuando defina stream: true.
No
Ninguno
tools
array
Una lista de herramientas a las que puede llamar el modelo. Actualmente, solo se admiten funciones como una herramienta. Úselo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. Se admite un máximo de 128 funciones.
Controla la herramienta (si existe) a la que llama el modelo. none significa que el modelo no llamará a ninguna herramienta y en su lugar, generará un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas. required significa que el modelo debe llamar a una o varias herramientas. Especificar una herramienta determinada a través de {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta. none es el valor predeterminado cuando no hay herramientas presentes. auto es el valor predeterminado si las herramientas están presentes.
Controla la función (si existe) a la que llama el modelo. none significa que el modelo no llamará a una función, sino que generará un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función. Especificar una función determinada a través de {"name": "my_function"} obliga al modelo a llamar a esa función.
none es el valor predeterminado cuando no hay funciones presentes. auto es el valor predeterminado si hay funciones.
No
functions
array
En desuso en favor de tools.
Una lista de funciones para las que el modelo puede generar entradas JSON.
El contexto de seguridad del usuario contiene varios parámetros que describen la propia aplicación de IA y el usuario final que interactúa con la aplicación de IA. Estos campos ayudan a los equipos de operaciones de seguridad a investigar y mitigar los incidentes de seguridad al proporcionar un enfoque integral para proteger las aplicaciones de inteligencia artificial. Obtenga más información sobre la protección de aplicaciones de inteligencia artificial mediante Microsoft Defender for Cloud.
No
userSecurityContext
El contexto de seguridad del usuario contiene varios parámetros que describen la propia aplicación de IA y el usuario final que interactúa con la aplicación de IA. Estos campos ayudan a los equipos de operaciones de seguridad a investigar y mitigar los incidentes de seguridad al proporcionar un enfoque integral para proteger las aplicaciones de inteligencia artificial. Obtenga más información sobre la protección de aplicaciones de inteligencia artificial mediante Microsoft Defender for Cloud.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
application_name
string
El nombre de la aplicación. La información personal confidencial no debe incluirse en este campo.
No
end_user_id
string
Este identificador es el identificador de objeto de usuario de Microsoft Entra ID (anteriormente Azure Active Directory) que se usa para autenticar a los usuarios finales dentro de la aplicación de IA generativa. La información personal confidencial no debe incluirse en este campo.
No
end_user_tenant_id
string
El identificador de inquilino de Microsoft 365 al que pertenece el usuario final. Es necesario cuando la aplicación de IA generativa es multiinquilino.
No
source_ip
string
Captura la dirección IP del cliente original, aceptando formatos IPv4 e IPv6.
No
chatCompletionFunctions
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
descripción
string
Descripción de lo que hace la función, que usa el modelo para elegir cuándo y cómo llamar a la función.
No
name
cadena
El nombre de la función que se llamará. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64.
Al omitir parameters se define una función con una lista de parámetros vacía.
No
chatCompletionFunctionCallOption
Especificar una función determinada a través de {"name": "my_function"} obliga al modelo a llamar a esa función.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
nombre
cadena
El nombre de la función que se va a llamar.
Sí
chatCompletionFunctionParameters
Los parámetros que aceptan las funciones, que se describen como un objeto de Esquema JSON. Consulte la guía/ para obtener ejemplos y referencia del esquema JSON de documentación sobre el formato.
No hay propiedades definidas para este componente.
chatCompletionRequestMessage
Este componente puede ser uno de los siguientes:
ChatCompletionRequestDeveloperMessage
Instrucciones proporcionadas por el desarrollador que el modelo debe seguir, independientemente de los mensajes enviados por el usuario.
En los modelos o1 y posteriores, los mensajes developer reemplazan a los anteriores system.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
content
cadena o matriz
Contenido del mensaje del desarrollador.
Sí
rol
enum
Rol del autor de mensajes, en este caso developer. Valores posibles: desarrollador
Sí
nombre
string
Nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre los participantes con el mismo rol.
No
chatCompletionRequestSystemMessage
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
content
cadena o matriz
El contenido del mensaje del sistema.
Sí
rol
enum
Rol del autor de mensajes, en este caso system. Valores posibles: system
Sí
nombre
string
Nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre los participantes con el mismo rol.
No
chatCompletionRequestUserMessage
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
content
cadena o matriz
Contenido del mensaje del usuario.
Sí
rol
enum
Rol del autor de mensajes, en este caso user. Valores posibles: user
Sí
nombre
string
Nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre los participantes con el mismo rol.
No
chatCompletionRequestAssistantMessage
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
content
cadena o matriz
Contenido del mensaje del asistente. Obligatorio a menos que se especifique tool_calls o function_call.
No
refusal
string
Mensaje de denegación por parte del asistente.
No
rol
enum
Rol del autor de mensajes, en este caso assistant. Valores posibles: assistant
Sí
nombre
string
Nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre los participantes con el mismo rol.
Llamadas a herramientas generadas por el modelo, como las llamadas a funciones.
No
function_call
objeto
En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo.
No
Propiedades de function_call
argumentos
Nombre
Escribir
Descripción
Valor predeterminado
argumentos
string
Argumentos para llamar a la función, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función.
nombre
Nombre
Escribir
Descripción
Valor predeterminado
nombre
cadena
El nombre de la función que se va a llamar.
chatCompletionRequestToolMessage
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
rol
enum
Rol del autor de mensajes, en este caso tool. Valores posibles: tool
Sí
content
cadena o matriz
Contenido del mensaje de la herramienta.
Sí
tool_call_id
string
Llamada a la herramienta a la que va a responder este mensaje.
Sí
chatCompletionRequestFunctionMessage
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
rol
enum
Rol del autor de mensajes, en este caso function. Valores posibles: función
Sí
content
string
Contenido del mensaje de la función.
Sí
nombre
cadena
El nombre de la función que se va a llamar.
Sí
chatCompletionRequestDeveloperMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestSystemMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestUserMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestAssistantMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestToolMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestMessageContentPartText
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
enum
Tipo del elemento de contenido. Valores posibles: text
Sí
text
string
Contenido de texto.
Sí
chatCompletionRequestMessageContentPartImage
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
enum
Tipo del elemento de contenido. Valores posibles: image_url
Sí
image_url
objeto
Sí
Propiedades de image_url
dirección url
Nombre
Escribir
Descripción
Valor predeterminado
dirección url
string
Dirección URL de la imagen o datos de imagen codificados en base64.
detail
Nombre
Escribir
Descripción
Valor predeterminado
detail
string
Especifica el nivel de detalle de la imagen. Más información en la guía de visión.
auto
chatCompletionRequestMessageContentPartRefusal
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
enum
Tipo del elemento de contenido. Valores posibles: refusal
Sí
refusal
string
Mensaje de denegación generado por el modelo.
Sí
azureChatExtensionConfiguration
Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto se usará mediante una solicitud de finalizaciones de chat que debe usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta.
El uso de esta configuración solo es compatible con Azure OpenAI.
Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat solicitudes de finalización que deben usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.
Sí
azureChatExtensionType
Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto se usará mediante una solicitud de finalizaciones de chat que debe usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta.
El uso de esta configuración solo es compatible con Azure OpenAI.
Descripción: representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat solicitudes de finalización que deben usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.
Tipo: string
Valor predeterminado:
Nombre de enumeración: AzureChatExtensionType
Valores de enumeración:
Valor
Descripción
azure_search
Representa el uso de Azure Search como una extensión de chat de Azure OpenAI.
azure_cosmos_db
Representa el uso de Azure Cosmos DB como una extensión de chat de Azure OpenAI.
elasticsearch
Representa el uso del índice de Elasticsearch® como una extensión de chat de Azure OpenAI.
mongo_db
Representa el uso de Mongo DB como una extensión de chat de Azure OpenAI.
pinecone
Representa el uso del índice pinecone como una extensión de chat de Azure OpenAI.
azureSearchChatExtensionConfiguration
Representación específica de las opciones configurables para Azure Search al usarlo como una extensión de chat de Azure OpenAI.
Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat solicitudes de finalización que deben usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.
El número superior configurado de documentos que se van a presentar para la consulta configurada.
No
max_search_queries
integer
Número máximo de consultas reescritas que se deben enviar al proveedor de búsqueda para un mensaje de usuario. Si no se especifica, el sistema decidirá el número de consultas que se van a enviar.
No
allow_partial_result
boolean
Si se especifica como true, el sistema permitirá usar resultados de búsqueda parciales y se producirá un error en la solicitud si se produce un error en todas las consultas. Si no se especifica o se especifica como false, se producirá un error en la solicitud si se produce lo mismo en alguna consulta de búsqueda.
No
False
in_scope
boolean
Si las consultas deben restringirse al uso de datos indexados.
No
rigurosidad
integer
La configuración estricta del filtrado de relevancia de búsqueda. Cuanto más estricta sea, mayor será la precisión, pero una menor coincidencia de la respuesta.
No
endpoint
string
Ruta de acceso del punto de conexión absoluto para el recurso de Azure Search que se va a usar.
Sí
index_name
string
El nombre del índice a utilizar como disponible en el recurso Azure Search referenciado.
Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat solicitudes de finalización que deben usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.
Las opciones de autenticación de Azure OpenAI en los datos al usar una cadena de conexión.
Sí
top_n_documents
integer
El número superior configurado de documentos que se van a presentar para la consulta configurada.
No
max_search_queries
integer
Número máximo de consultas reescritas que se deben enviar al proveedor de búsqueda para un mensaje de usuario. Si no se especifica, el sistema decidirá el número de consultas que se van a enviar.
No
allow_partial_result
boolean
Si se especifica como true, el sistema permitirá usar resultados de búsqueda parciales y se producirá un error en la solicitud si se produce un error en todas las consultas. Si no se especifica o se especifica como false, se producirá un error en la solicitud si se produce lo mismo en alguna consulta de búsqueda.
No
False
in_scope
boolean
Si las consultas deben restringirse al uso de datos indexados.
No
rigurosidad
integer
La configuración estricta del filtrado de relevancia de búsqueda. Cuanto más estricta sea, mayor será la precisión, pero una menor coincidencia de la respuesta.
No
database_name
string
El nombre de base de datos de núcleo virtual de MongoDB que se va a usar con Azure Cosmos DB.
Sí
container_name
string
El nombre del contenedor de recursos de Azure Cosmos DB.
Sí
index_name
string
El nombre de índice de núcleo virtual de MongoDB que se va a usar con Azure Cosmos DB.
Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat solicitudes de finalización que deben usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.
El número superior configurado de documentos que se van a presentar para la consulta configurada.
No
max_search_queries
integer
Número máximo de consultas reescritas que se deben enviar al proveedor de búsqueda para un mensaje de usuario. Si no se especifica, el sistema decidirá el número de consultas que se van a enviar.
No
allow_partial_result
boolean
Si se especifica como true, el sistema permitirá usar resultados de búsqueda parciales y se producirá un error en la solicitud si se produce un error en todas las consultas. Si no se especifica o se especifica como false, se producirá un error en la solicitud si se produce lo mismo en alguna consulta de búsqueda.
No
False
in_scope
boolean
Si las consultas deben restringirse al uso de datos indexados.
No
rigurosidad
integer
La configuración estricta del filtrado de relevancia de búsqueda. Cuanto más estricta sea, mayor será la precisión, pero una menor coincidencia de la respuesta.
Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat solicitudes de finalización que deben usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.
Las opciones de autenticación de Azure OpenAI en los datos al usar un nombre de usuario y una contraseña.
Sí
top_n_documents
integer
El número superior configurado de documentos que se van a presentar para la consulta configurada.
No
max_search_queries
integer
Número máximo de consultas reescritas que se deben enviar al proveedor de búsqueda para un mensaje de usuario. Si no se especifica, el sistema decidirá el número de consultas que se van a enviar.
No
allow_partial_result
boolean
Si se especifica como true, el sistema permitirá usar resultados de búsqueda parciales y se producirá un error en la solicitud si se produce un error en todas las consultas. Si no se especifica o se especifica como false, se producirá un error en la solicitud si se produce lo mismo en alguna consulta de búsqueda.
No
False
in_scope
boolean
Si las consultas deben restringirse al uso de datos indexados.
No
rigurosidad
integer
La configuración estricta del filtrado de relevancia de búsqueda. Cuanto más estricta sea, mayor será la precisión, pero una menor coincidencia de la respuesta.
No
endpoint
string
Nombre del punto de conexión del clúster de Mongo DB.
Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat solicitudes de finalización que deben usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.
Las opciones de autenticación de Azure OpenAI en los datos al usar una clave de API.
Sí
top_n_documents
integer
El número superior configurado de documentos que se van a presentar para la consulta configurada.
No
max_search_queries
integer
Número máximo de consultas reescritas que se deben enviar al proveedor de búsqueda para un mensaje de usuario. Si no se especifica, el sistema decidirá el número de consultas que se van a enviar.
No
allow_partial_result
boolean
Si se especifica como true, el sistema permitirá usar resultados de búsqueda parciales y se producirá un error en la solicitud si se produce un error en todas las consultas. Si no se especifica o se especifica como false, se producirá un error en la solicitud si se produce lo mismo en alguna consulta de búsqueda.
No
False
in_scope
boolean
Si las consultas deben restringirse al uso de datos indexados.
No
rigurosidad
integer
La configuración estricta del filtrado de relevancia de búsqueda. Cuanto más estricta sea, mayor será la precisión, pero una menor coincidencia de la respuesta.
Los detalles de un origen de vectorización, que usa Azure OpenAI en los datos al aplicar la búsqueda de vectores, que se basa en en un nombre de implementación de modelos de inserción interno en el mismo recurso de Azure OpenAI.
Sí
include_contexts
array
Las propiedades incluidas del contexto de salida. Si no se especifican, el valor predeterminado es citations y intent.
No
pineconeFieldMappingOptions
Opciones opcionales para controlar cómo se procesan los campos al usar un recurso de Azure Search configurado.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
title_field
string
Nombre del campo de índice que se va a usar como título.
No
url_field
string
Nombre del campo de índice que se va a usar como dirección URL.
No
filepath_field
string
Nombre del campo de índice que se va a usar como ruta de acceso de archivo.
No
content_fields
array
Los nombres de los campos de índice que se deben tratar como contenido.
Sí
content_fields_separator
string
Patrón separador que deben usar los campos de contenido.
No
onYourDataAuthenticationOptions
Las opciones de autenticación de Azure OpenAI en los datos.
Representa los orígenes disponibles que Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con vector de búsqueda.
Sí
onYourDataVectorizationSourceType
Representa los orígenes disponibles que Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con la vector de búsqueda.
Descripción: representa los orígenes disponibles que Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con vector de búsqueda.
Tipo: string
Valor predeterminado:
Nombre de enumeración: OnYourDataVectorizationSourceType
Valores de enumeración:
Valor
Descripción
endpoint
Representa la vectorización realizada por llamadas de servicio público a un modelo de inserción de Azure OpenAI.
deployment_name
Representa un nombre de implementación del modelo de Ada que se va a usar. Esta implementación del modelo debe estar en el mismo recurso de Azure OpenAI, pero En los datos, usará esta implementación del modelo a través de una llamada interna en lugar de una pública, lo que permite el vector buscar incluso en redes privadas.
integrated
Representa el vectorizador integrado definido dentro del recurso de búsqueda.
model_id
Representa un identificador de modelo de inserción específico tal como se define en el servicio de búsqueda. Actualmente solo es compatible con Elasticsearch®.
onYourDataEndpointVectorizationSource
Los detalles de un origen de vectorización, que usa Azure OpenAI en los datos al aplicar la búsqueda de vectores, que se basa en una llamada pública de punto de conexión de Azure OpenAI para incrustaciones.
Representa los orígenes disponibles que Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con vector de búsqueda.
Sí
endpoint
string
Especifica la dirección URL del punto de conexión de recurso desde la que se deben recuperar las incrustaciones. Debe tener el formato https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. No se permite el parámetro de consulta api-version.
El número de dimensiones que deben tener las inserciones. Solo se admite en modelos text-embedding-3 y versiones posteriores.
No
onYourDataDeploymentNameVectorizationSource
Los detalles de un origen de vectorización, que usa Azure OpenAI en los datos al aplicar un vector de búsqueda, que se basa en un nombre de implementación de modelos de inserción interno en el mismo recurso de Azure OpenAI.
Representa los orígenes disponibles que Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con vector de búsqueda.
Sí
deployment_name
string
Especifica el nombre de la implementación de modelo que se va a usar para la vectorización. Esta implementación del modelo debe estar en el mismo recurso de Azure OpenAI, pero En los datos usará esta implementación de modelo a través de una llamada interna en lugar de una pública, lo que permite el vector de búsqueda incluso en redes privadas.
No
dimensiones
integer
El número de dimensiones que deben tener las inserciones. Solo se admite en modelos text-embedding-3 y versiones posteriores.
No
onYourDataIntegratedVectorizationSource
Representa el vectorizador integrado definido dentro del recurso de búsqueda.
Representa los orígenes disponibles que Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con vector de búsqueda.
Sí
onYourDataModelIdVectorizationSource
Los detalles de un origen de vectorización, que usa Azure OpenAI en los datos al aplicar el vector de búsqueda, que se basa en un identificador de modelo de servicio de búsqueda. Actualmente solo es compatible con Elasticsearch®.
Representa los orígenes disponibles que Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con vector de búsqueda.
Sí
model_id
string
Especifica el id. de modelo que se va a usar para la vectorización. Este identificador de modelo debe definirse en el servicio de búsqueda.
No
azureChatExtensionsMessageContext
Representación de la información de contexto adicional disponible cuando las extensiones de chat de Azure OpenAI participan en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando se usa una solicitud de Azure OpenAI configurada para usar una extensión coincidente.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
Citas
array
Resultado de la recuperación del origen de datos, que se usa para generar el mensaje del asistente en la respuesta.
No
intención
string
La intención detectada del historial de chat, que se usa para pasar al siguiente turno para llevar el contexto.
No
all_retrieved_documents
array
Todos los documentos recuperados.
No
cita
información de cita para un mensaje de respuesta de finalizaciones de chat.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
content
string
Contenido de la cita.
Sí
title
string
Título de la cita.
No
dirección url
string
Dirección URL de la cita.
No
filepath
string
Ruta de acceso del archivo de la cita.
No
chunk_id
string
Identificador del fragmento de la cita.
No
rerank_score
number
La puntuación de reclasificación del documento recuperado.
No
retrievedDocument
El documento recuperado.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
content
string
Contenido de la cita.
Sí
title
string
Título de la cita.
No
dirección url
string
Dirección URL de la cita.
No
filepath
string
Ruta de acceso del archivo de la cita.
No
chunk_id
string
Identificador del fragmento de la cita.
No
rerank_score
number
La puntuación de reclasificación del documento recuperado.
No
search_queries
array
Las consultas de búsqueda usadas para recuperar el documento.
No
data_source_index
integer
El índice del origen de datos.
No
original_search_score
number
La puntuación de búsqueda original del documento recuperado.
Tipo de la llamada a la herramienta, en este caso function.
Sí
function
objeto
Función a la que llamó el modelo.
Sí
Propiedades de la función
nombre
Nombre
Escribir
Descripción
Valor predeterminado
nombre
cadena
El nombre de la función que se va a llamar.
argumentos
Nombre
Escribir
Descripción
Valor predeterminado
argumentos
string
Argumentos para llamar a la función, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función.
toolCallType
Tipo de la llamada a la herramienta, en este caso function.
Descripción: el tipo de la llamada a la herramienta, en este caso function.
Tipo: string
Valor predeterminado:
Nombre de enumeración: ToolCallType
Valores de enumeración:
Valor
Descripción
function
El tipo de llamada de herramienta es función.
chatCompletionRequestMessageTool
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
tool_call_id
string
Llamada a la herramienta a la que va a responder este mensaje.
No
content
string
Contenido del mensaje.
No
chatCompletionRequestMessageFunction
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
rol
enum
Rol del autor de mensajes, en este caso function. Valores posibles: función
No
name
string
Contenido del mensaje.
No
content
string
Contenido del mensaje.
No
CreateChatCompletionResponse
Representa una respuesta de finalización de chat devuelta por el modelo, en función de la entrada proporcionada.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador único para la finalización del chat.
Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes.
No
opciones
array
Una lista de opciones de finalización de chat. Puede ser más de uno si n es mayor que 1.
Sí
created
integer
Marca de tiempo de Unix (en segundos) de cuando se creó la finalización de chat.
Sí
modelo
string
Modelo usado para la finalización de chat.
Sí
system_fingerprint
string
Esta huella digital representa la configuración de back-end con la que se ejecuta el modelo.
Se puede usar junto con el parámetro de solicitud seed para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo.
No
objeto
enum
Tipo de objeto, que siempre es chat.completion. Valores posibles: chat.completion
Estadísticas de uso de la solicitud de finalización.
No
createChatCompletionStreamResponse
Representa un fragmento transmitido de una respuesta de finalización de chat devuelta por el modelo, en función de la entrada proporcionada.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador único para la finalización del chat. Cada fragmento tiene el mismo id.
Sí
opciones
array
Una lista de opciones de finalización de chat. Puede contener más de un elemento si n es mayor que 1.
Sí
created
integer
Marca de tiempo de Unix (en segundos) de cuando se creó la finalización de chat. Cada fragmento tiene la misma marca de tiempo.
Sí
modelo
string
Modelo para generar la finalización.
Sí
system_fingerprint
string
Esta huella digital representa la configuración de back-end con la que se ejecuta el modelo. Se puede usar junto con el parámetro de solicitud seed para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo.
No
objeto
enum
Tipo de objeto, que siempre es chat.completion.chunk. Valores posibles: chat.completion.chunk
Sí
chatCompletionStreamResponseDelta
Una diferencia de finalización del chat generada por respuestas del modelo transmitido.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
content
string
Contenido del fragmento del mensaje.
No
function_call
objeto
En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo.
No
tool_calls
array
No
rol
enum
Rol del autor de este mensaje. Valores posibles: system, user, assistant, tool
No
refusal
string
Mensaje de denegación generado por el modelo.
No
Propiedades de function_call
argumentos
Nombre
Escribir
Descripción
Valor predeterminado
argumentos
string
Argumentos para llamar a la función, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función.
nombre
Nombre
Escribir
Descripción
Valor predeterminado
nombre
cadena
El nombre de la función que se va a llamar.
chatCompletionMessageToolCallChunk
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
índice
integer
Sí
id
string
Identificador de la llamada a la herramienta.
No
type
enum
El tipo de la herramienta. Actualmente, solo se admite function. Valores posibles: función
No
function
objeto
No
Propiedades de la función
nombre
Nombre
Escribir
Descripción
Valor predeterminado
nombre
cadena
El nombre de la función que se va a llamar.
argumentos
Nombre
Escribir
Descripción
Valor predeterminado
argumentos
string
Argumentos para llamar a la función, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función.
chatCompletionStreamOptions
Opciones para la respuesta de streaming. Establezca este valor solo cuando defina stream: true.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
include_usage
boolean
Si se establece, se transmitirá un fragmento adicional delante del mensaje data: [DONE]. El campo usage de este fragmento muestra las estadísticas de uso de tokens de toda la solicitud y el campo choices siempre será una matriz vacía. El resto de fragmentos también incluirá un campo usage, pero con un valor NULL.
No
chatCompletionChoiceLogProbs
Registre la información de probabilidad para la elección.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
content
array
Lista de tokens de contenido de mensajes con información de probabilidad de registro.
Sí
refusal
array
Lista de tokens de mensajes de denegación con información de probabilidad logarítmica.
No
chatCompletionTokenLogprob
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
token
string
Token.
Sí
logprob
number
Probabilidad de registro de este token.
Sí
bytes
array
Lista de enteros que representan la representación de bytes UTF-8 del token. Resulta útil en instancias en las que los caracteres se representan mediante varios tokens y sus representaciones de bytes deben combinarse para generar la representación de texto correcta. Puede ser null si no hay ninguna representación de bytes para el token.
Sí
top_logprobs
array
Lista de los tokens más probables y su probabilidad de registro, en esta posición del token. En raras ocasiones, puede que se devuelvan menos top_logprobs de los solicitados.
Sí
ChatCompletionResponseMessage
Mensaje de finalización del chat generado por el modelo.
Representación de la información de contexto adicional disponible cuando intervienen extensiones de chat de Azure OpenAI en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando mediante una solicitud de Azure OpenAI configurada para usar una extensión coincidente.
No
chatCompletionResponseMessageRole
Rol del autor del mensaje de respuesta.
Descripción: rol del autor del mensaje de respuesta.
Tipo: string
Valor predeterminado:
Valores de enumeración:
assistant
chatCompletionToolChoiceOption
Controla la herramienta (si existe) a la que llama el modelo. none significa que el modelo no llamará a ninguna herramienta y en su lugar, generará un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas. required significa que el modelo debe llamar a una o varias herramientas. Especificar una herramienta determinada a través de {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta. none es el valor predeterminado cuando no hay herramientas presentes. auto es el valor predeterminado si las herramientas están presentes.
Este componente puede ser uno de los siguientes:
chatCompletionNamedToolChoice
Especifica una herramienta que debe usar el modelo. Use para forzar que el modelo llame a una función específica.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
enum
El tipo de la herramienta. Actualmente, solo se admite function. Valores posibles: función
Sí
function
objeto
Sí
Propiedades de la función
nombre
Nombre
Escribir
Descripción
Valor predeterminado
nombre
cadena
El nombre de la función que se va a llamar.
ParallelToolCalls
Indica si se debe habilitar la llamada a funciones paralelas durante el uso de la herramienta.
No hay propiedades definidas para este componente.
chatCompletionMessageToolCalls
Llamadas a herramientas generadas por el modelo, como las llamadas a funciones.
No hay propiedades definidas para este componente.
chatCompletionFunctionCall
En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
nombre
cadena
El nombre de la función que se va a llamar.
Sí
argumentos
string
Argumentos para llamar a la función, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función.
Sí
CompletionUsage
Estadísticas de uso de la solicitud de finalización.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
prompt_tokens
integer
Número de tokens en el símbolo del sistema.
Sí
completion_tokens
integer
Número de tokens en la finalización generada.
Sí
total_tokens
integer
Número total de tokens usados en la solicitud (solicitud + finalización).
Sí
prompt_tokens_details
objeto
Detalles de los tokens de solicitud.
No
completion_tokens_details
objeto
Desglose de los tokens que se usan en una finalización.
No
Propiedades de prompt_tokens_details
cached_tokens
Nombre
Escribir
Descripción
Valor predeterminado
cached_tokens
integer
Número de tokens de solicitud almacenados en caché.
Propiedades de completion_tokens_details
reasoning_tokens
Nombre
Escribir
Descripción
Valor predeterminado
reasoning_tokens
integer
Tokens generados por el modelo para razonamiento.
chatCompletionTool
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
enum
El tipo de la herramienta. Actualmente, solo se admite function. Valores posibles: función
Al omitir parameters se define una función con una lista de parámetros vacía.
No
strict
boolean
Indica si se debe habilitar el cumplimiento estricto del esquema al generar la llamada a la función. Si se establece en true, el modelo seguirá el esquema exacto definido en el campo parameters. Solo se admite un subconjunto del esquema JSON cuando strict es true.
No
False
ResponseFormatText
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
enum
Tipo de formato de respuesta que se va a definir: text Valores posibles: text
Sí
ResponseFormatJsonObject
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
enum
Tipo de formato de respuesta que se va a definir: json_object Valores posibles: json_object
Sí
ResponseFormatJsonSchemaSchema
Esquema para el formato de respuesta, descrito como un objeto de esquema JSON.
No hay propiedades definidas para este componente.
ResponseFormatJsonSchema
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
enum
Tipo de formato de respuesta que se va a definir: json_schema Valores posibles: json_schema
Sí
json_schema
objeto
Sí
Propiedades para json_schema
descripción
Nombre
Escribir
Descripción
Valor predeterminado
descripción
string
Descripción del formato de respuesta que usa el modelo para determinar cómo responder en el formato.
nombre
Nombre
Escribir
Descripción
Valor predeterminado
nombre
string
Nombre del formato de respuesta. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64.
Esquema para el formato de respuesta, descrito como un objeto de esquema JSON.
strict
Nombre
Escribir
Descripción
Valor predeterminado
strict
boolean
Indica si se debe habilitar el cumplimiento estricto del esquema al generar la respuesta. Si se establece en true, el modelo siempre seguirá el esquema exacto definido en el campo schema. Solo se admite un subconjunto del esquema JSON cuando strict es true.
False
chatCompletionChoiceCommon
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
índice
integer
No
finish_reason
string
No
createTranslationRequest
Solicitud de traducción.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
file
string
Archivo de audio que se va a traducir.
Sí
símbolo del sistema
string
Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe estar en inglés.
Temperatura de muestreo, entre 0 y 1. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Si se fija en 0, el modelo utilizará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales.
No
0
audioResponse
Respuesta de traducción o transcripción cuando response_format era json
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
text
string
Texto traducido o transcrito.
Sí
audioVerboseResponse
Respuesta de traducción o transcripción cuando se verbose_json response_format
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
text
string
Texto traducido o transcrito.
Sí
task
string
Tipo de tarea de audio.
No
language
string
Idioma.
No
duración
number
Duración.
No
segmentos
array
No
words
array
No
audioResponseFormat
Define el formato del archivo.
Descripción: define el formato de la salida.
Tipo: string
Valor predeterminado:
Valores de enumeración:
json
text
srt
verbose_json
vtt
createTranscriptionRequest
Solicitud de transcripción.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
file
string
Objeto de archivo de audio que se va a transcribir.
Sí
símbolo del sistema
string
Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe coincidir con el idioma del audio.
Temperatura de muestreo, entre 0 y 1. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Si se fija en 0, el modelo utilizará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales.
No
0
language
string
El idioma del audio de entrada. Suministrar la lengua de entrada en formato ISO-639-1 mejorará la precisión y la latencia.
No
timestamp_granularities[]
array
Granularidades de marca de tiempo que se van a rellenar para esta transcripción. response_format debe establecerse en verbose_json para usar granularidades de marca de tiempo. Se admiten una o ambas opciones: word o segment. Nota: no hay ninguna latencia adicional para las marcas de tiempo de segmento, pero la generación de marcas de tiempo de palabra incurre en una latencia adicional.
No
['segmento']
audioSegment
Segmento de transcripción o traducción.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
integer
Identificador de segmento.
No
Seek
number
Desplazamiento del segmento.
No
start
number
Desplazamiento de inicio del segmento.
No
end
number
Desplazamiento final del segmento.
No
text
string
Segmentar texto.
No
tokens
array
Tokens del texto.
No
temperatura
number
Temperatura.
No
avg_logprob
number
Probabilidad media del registro.
No
compression_ratio
number
Razón de compresión.
No
no_speech_prob
number
Probabilidad de "sin voz".
No
audioWord
Transcripción o palabra de traducción.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
word
string
Word
No
start
number
Desplazamiento de inicio de palabra.
No
end
number
Desplazamiento final de word.
No
createSpeechRequest
Solicitud de voz.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
input
string
Texto para el que se va a sintetizar el audio. La longitud máxima es de 4096 caracteres.
Sí
voice
enum
Voz que se va a usar para la síntesis de voz. Valores posibles: aleación, eco, fable, onyx, nova, shimmer
Sí
response_format
enum
Formato en el que se sintetiza el audio. Valores posibles: mp3, opus, aac, flac, wav, pcm
No
velocidad
number
Velocidad del audio sintetizado. Seleccione un valor de 0.25 a 4.0. 1.0 es el valor predeterminado.
No
1.0
imageQuality
Calidad de la imagen que se generará.
Descripción: calidad de la imagen que se generará.
Tipo: string
Valor predeterminado: estándar
Nombre de enumeración: Calidad
Valores de enumeración:
Valor
Descripción
Estándar
La calidad estándar crea imágenes con calidad estándar.
hd
La calidad HD crea imágenes con detalles más finos y mayor consistencia en toda la imagen.
imagesResponseFormat
Formato en el que se devuelven las imágenes generadas.
Descripción: El formato en el que se devuelven las imágenes generadas.
Tipo: string
Valor predeterminado: url
Nombre de enumeración: ImagesResponseFormat
Valores de enumeración:
Valor
Descripción
dirección url
Dirección URL que proporciona acceso temporal para descargar las imágenes generadas.
b64_json
Las imágenes generadas se devuelven como cadena codificada en base64.
imageSize
Tamaño de las imágenes generadas.
Descripción: El tamaño de las imágenes generadas.
Tipo: string
Valor predeterminado: 1024x1024
Nombre de enumeración: Tamaño
Valores de enumeración:
Valor
Descripción
256x256
El tamaño deseado de la imagen generada es de 256 x 256 píxeles. Solo se admite para DALL-E-2.
512x512
El tamaño deseado de la imagen generada es de 512 x 512 píxeles. Solo se admite para DALL-E-2.
1792x1024
El tamaño deseado de la imagen generada es de 1792 x 1024 píxeles. Solo se admite para DALL-E-3.
1024x1792
El tamaño deseado de la imagen generada es de 1024 x 1792 píxeles. Solo se admite para DALL-E-3.
1024x1024
El tamaño deseado de la imagen generada es de 1024 x 1024 píxeles.
imageStyle
Estilo de las imágenes generadas.
Descripción: estilo de las imágenes generadas.
Tipo: string
Valor predeterminado: vívido
Nombre de enumeración: Estilo
Valores de enumeración:
Valor
Descripción
Vívido
Vívidas crea imágenes que son hiper-realistas y dramáticas.
natural
Natural crea imágenes que son más naturales y menos hiper-realistas.
imageGenerationsRequest
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
símbolo del sistema
string
Descripción de texto de las imágenes deseadas. La longitud máxima es de 4000 caracteres.
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.
No
line
Objeto de línea de contenido que consta de una secuencia adyacente de elementos de contenido, como palabras y marcas de selección.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
text
string
Sí
intervalos
array
Matriz de intervalos que representan objetos detectados y su información de cuadro de límite.
Sí
span
Un objeto intervalo que representa un objeto detectado y su información de cuadro de límite.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
text
string
Contenido de texto del intervalo que representa el objeto detectado.
Sí
offset
integer
Desplazamiento de caracteres dentro del texto donde comienza el intervalo. Este desplazamiento se define como la posición del primer carácter del intervalo, contando desde el principio del texto como puntos de código Unicode.
Sí
length
integer
Longitud del intervalo en caracteres, medido en puntos de código Unicode.
Sí
polygon
array
Matriz de objetos que representan puntos en el polígono que incluye el objeto detectado.
Sí
runCompletionUsage
Estadísticas de uso relacionadas con la ejecución. Este valor se null si la ejecución no está en un estado terminal (es decir, in_progress, queued, etcetera).
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
completion_tokens
integer
Número de tokens de finalización usados durante la ejecución.
Sí
prompt_tokens
integer
Número de tokens de solicitud usados durante la ejecución.
Sí
total_tokens
integer
Número total de tokens usados (símbolo del sistema y finalización).
Sí
runStepCompletionUsage
Estadísticas de uso relacionadas con el paso de ejecución. Este valor será null mientras el estado del paso de ejecución es in_progress.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
completion_tokens
integer
Número de tokens de finalización usados durante el paso de ejecución.
Sí
prompt_tokens
integer
Número de tokens de solicitud usados durante el paso de ejecución.
Sí
total_tokens
integer
Número total de tokens usados (símbolo del sistema y finalización).
Sí
assistantsApiResponseFormatOption
Especifica el formato que debe generar el modelo. Compatible con los modelos GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.
Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado. Obtenga más información en la guía de salidas estructuradas.
Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo sea JSON válido.
Importante: Cuando utilice el modo JSON, también deberá instruir usted mismo al modelo para que produzca JSON a través de un mensaje del sistema o del usuario. Sin esta instrucción, el modelo puede generar una secuencia de espacios en blanco sin fin hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.
Este componente puede ser uno de los siguientes:
assistantsApiResponseFormat
Objeto que describe la salida esperada del modelo. Si json_object solo function se permite pasar el tipo tools a la ejecución. Si text el modelo puede devolver texto o cualquier valor necesario.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Debe ser uno de text o json_object.
No
text
type Enum: AssistantsApiResponseFormat
Valor
Descripción
text
json_object
assistantObject
Representa un assistant que puede llamar al modelo y usar herramientas.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador al que se puede hacer referencia en puntos de conexión de API.
Sí
objeto
string
Tipo de objeto, que siempre es assistant.
Sí
created_at
integer
Marca de tiempo de Unix (en segundos) para cuando se creó el asistente.
Sí
nombre
string
Nombre del asistente. La longitud máxima es de 256 caracteres.
Sí
description
string
Descripción del asistente. La longitud máxima es de 512 caracteres.
Sí
modelo
string
Identificador del modelo que se va a usar. Puede usar la API Enumeración de modelos para ver todos los modelos disponibles o consultar nuestro artículo de información general de los modelos para obtener descripciones de ellos.
Sí
detalladas
string
Las instrucciones del sistema que usa el asistente. La longitud máxima es de 256 000 caracteres.
Sí
tools
array
Lista de herramientas habilitadas en el asistente. Puede haber un máximo de 128 herramientas por asistente. Las herramientas pueden ser de tipos code_interpreter, file_searcho function.
Sí
[]
tool_resources
objeto
Conjunto de recursos que usan las herramientas del asistente. Los recursos son específicos del tipo de herramienta. Por ejemplo, la herramienta code_interpreter requiere una lista de identificadores de archivo, mientras que la file_search herramienta requiere una lista de identificadores de almacén de vectores.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
Sí
temperatura
number
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
No
1
top_p
number
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o la temperatura, pero no ambos.
Especifica el formato que debe generar el modelo. Compatible con los modelos GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.
Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado. Obtenga más información en la guía de salidas estructuradas.
Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo sea JSON válido.
Importante: Cuando utilice el modo JSON, también deberá instruir usted mismo al modelo para que produzca JSON a través de un mensaje del sistema o del usuario. Sin esta instrucción, el modelo puede generar una secuencia de espacios en blanco sin fin hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.
No
Propiedades de tool_resources
code_interpreter
Nombre
Escribir
Descripción
Valor predeterminado
file_ids
array
Lista de identificadores de archivo disponibles para la herramienta code_interpreter. Puede haber un máximo de 20 archivos asociados con la herramienta.
[]
file_search
Nombre
Escribir
Descripción
Valor predeterminado
vector_store_ids
array
Identificador del almacén de vectores adjunto a este asistente. Puede haber un máximo de un almacén de vectores asociado al asistente.
object Enum: AssistantObjectType
Valor
Descripción
assistant
Tipo de objeto, que siempre es asistente
createAssistantRequest
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
model
Sí
nombre
string
Nombre del asistente. La longitud máxima es de 256 caracteres.
No
descripción
string
Descripción del asistente. La longitud máxima es de 512 caracteres.
No
detalladas
string
Las instrucciones del sistema que usa el asistente. La longitud máxima es de 256 000 caracteres.
No
tools
array
Lista de herramientas habilitadas en el asistente. Puede haber un máximo de 128 herramientas por asistente. Las herramientas pueden ser de tipos code_interpreter, retrieval o function.
No
[]
tool_resources
objeto
Conjunto de recursos que usan las herramientas del asistente. Los recursos son específicos del tipo de herramienta. Por ejemplo, la herramienta code_interpreter requiere una lista de identificadores de archivo, mientras que la file_search herramienta requiere una lista de identificadores de almacén de vectores.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
temperatura
number
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
No
1
top_p
number
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o la temperatura, pero no ambos.
Especifica el formato que debe generar el modelo. Compatible con los modelos GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.
Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado. Obtenga más información en la guía de salidas estructuradas.
Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo sea JSON válido.
Importante: Cuando utilice el modo JSON, también deberá instruir usted mismo al modelo para que produzca JSON a través de un mensaje del sistema o del usuario. Sin esta instrucción, el modelo puede generar una secuencia de espacios en blanco sin fin hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.
No
Propiedades de tool_resources
code_interpreter
Nombre
Escribir
Descripción
Valor predeterminado
file_ids
array
Lista de identificadores de archivo disponibles para la herramienta code_interpreter. Puede haber un máximo de 20 archivos asociados con la herramienta.
[]
file_search
Nombre
Escribir
Descripción
Valor predeterminado
vector_store_ids
array
El almacén de vectores adjunto a este asistente. Puede haber un máximo de un almacén de vectores asociado al asistente.
vector_stores
array
Asistente para crear un almacén de vectores con file_ids y adjuntarlo a este asistente. Puede haber un máximo de un almacén de vectores asociado al asistente.
modifyAssistantRequest
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
model
No
name
string
Nombre del asistente. La longitud máxima es de 256 caracteres.
No
descripción
string
Descripción del asistente. La longitud máxima es de 512 caracteres.
No
detalladas
string
Las instrucciones del sistema que usa el asistente. La longitud máxima es de 32 768 caracteres.
No
tools
array
Lista de herramientas habilitadas en el asistente. Puede haber un máximo de 128 herramientas por asistente. Las herramientas pueden ser de tipos code_interpreter, retrieval o function.
No
[]
tool_resources
objeto
Conjunto de recursos que usan las herramientas del asistente. Los recursos son específicos del tipo de herramienta. Por ejemplo, la herramienta code_interpreter requiere una lista de identificadores de archivo, mientras que la file_search herramienta requiere una lista de identificadores de almacén de vectores.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
temperatura
number
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
No
1
top_p
number
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o la temperatura, pero no ambos.
Especifica el formato que debe generar el modelo. Compatible con los modelos GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.
Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado. Obtenga más información en la guía de salidas estructuradas.
Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo sea JSON válido.
Importante: Cuando utilice el modo JSON, también deberá instruir usted mismo al modelo para que produzca JSON a través de un mensaje del sistema o del usuario. Sin esta instrucción, el modelo puede generar una secuencia de espacios en blanco sin fin hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.
No
Propiedades de tool_resources
code_interpreter
Nombre
Escribir
Descripción
Valor predeterminado
file_ids
array
Invalida la lista de identificadores de archivo que están disponibles para la herramienta code_interpreter. Puede haber un máximo de 20 archivos asociados con la herramienta.
[]
file_search
Nombre
Escribir
Descripción
Valor predeterminado
vector_store_ids
array
Invalida el almacén de vectores adjunto a este asistente. Puede haber un máximo de un almacén de vectores asociado al asistente.
deleteAssistantResponse
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Sí
deleted
boolean
Sí
objeto
string
Sí
object Enum: DeleteAssistantResponseState
Valor
Descripción
assistant.deleted
listAssistantsResponse
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
objeto
string
Sí
data
array
Sí
first_id
string
Sí
last_id
string
Sí
has_more
boolean
Sí
assistantToolsCode
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Tipo de herramienta que se va a definir: code_interpreter
Sí
type Enum: assistantToolsCodeType
Valor
Descripción
code_interpreter
assistantToolsFileSearch
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Tipo de herramienta que se va a definir: file_search
Sí
file_search
objeto
Invalida la herramienta de búsqueda de archivos.
No
Propiedades de file_search
max_num_results
Nombre
Escribir
Descripción
Valor predeterminado
max_num_results
integer
Número máximo de resultados que debe generar la herramienta de búsqueda de archivos. El valor predeterminado es 20 para los modelos gpt-4* y 5 para gpt-3.5-turbo. Este número debe estar comprendido entre 1 y 50 inclusive.
Tenga en cuenta que la herramienta de búsqueda de archivos puede generar menos de max_num_results resultados.
type Enum: assistantToolsFileSearchType
Valor
Descripción
file_search
assistantToolsFileSearchTypeOnly
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Tipo de herramienta que se va a definir: file_search
Sí
type Enum: assistantToolsFileSearchType
Valor
Descripción
file_search
assistantToolsFunction
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Tipo de herramienta que se va a definir: function
Sí
function
objeto
Definición de la función.
Sí
Propiedades de la función
descripción
Nombre
Escribir
Descripción
Valor predeterminado
descripción
string
Descripción de lo que hace la función, que usa el modelo para elegir cuándo y cómo llamar a la función.
nombre
Nombre
Escribir
Descripción
Valor predeterminado
nombre
cadena
El nombre de la función que se llamará. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64.
Los parámetros que aceptan las funciones, que se describen como un objeto de Esquema JSON. Consulte la guía/ para obtener ejemplos y referencia del esquema JSON de documentación sobre el formato.
type Enum: assistantToolsFunction
Valor
Descripción
function
truncationObject
Controla cómo se truncará un subproceso antes de la ejecución. Úselo para controlar la ventana de contexto inicial de la ejecución.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Estrategia de truncamiento que se va a usar para el subproceso. El valor predeterminado es auto. Si se establece en last_messages, el subproceso se truncará en los n mensajes más recientes del subproceso. Cuando se establece en auto, los mensajes en el centro del subproceso se quitarán para ajustarse a la longitud de contexto del modelo, max_prompt_tokens.
Sí
last_messages
integer
Número de mensajes más recientes del subproceso al construir el contexto de la ejecución.
No
type Enum: TruncationType
Valor
Descripción
auto
last_messages
assistantsApiToolChoiceOption
Controla la herramienta (si existe) a la que llama el modelo.
none significa que el modelo no llamará a ninguna herramienta, sino que generará un mensaje.
auto es el valor predeterminado y significa que el modelo puede elegir entre generar un mensaje o llamar a una herramienta.
Especificar una función determinada como {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta.
Este componente puede ser uno de los siguientes:
assistantsNamedToolChoice
Especifica una herramienta que debe usar el modelo. Use para forzar al modelo a llamar a una herramienta específica.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
El tipo de la herramienta. Si el tipo es function, el nombre de la función debe establecerse
Sí
function
objeto
No
Propiedades de la función
nombre
Nombre
Escribir
Descripción
Valor predeterminado
nombre
cadena
El nombre de la función que se va a llamar.
type Enum: AssistantsNamedToolChoiceType
Valor
Descripción
function
code_interpreter
file_search
runObject
Representa una ejecución de ejecución en un subproceso.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador al que se puede hacer referencia en puntos de conexión de API.
Sí
objeto
string
Tipo de objeto, que siempre es thread.run.
Sí
created_at
integer
Marca de tiempo de Unix (en segundos) para cuando se creó la ejecución.
Sí
thread_id
string
Identificador del subproceso en el que se ejecutó como parte de esta ejecución.
Sí
assistant_id
string
Identificador del asistente usado para la ejecución de esta ejecución.
Sí
estado
string
Estado de la ejecución, que puede ser queued, in_progress, requires_action, cancelling, cancelled, failed, completed o expired.
Sí
required_action
objeto
Detalles sobre la acción necesaria para continuar la ejecución. Será null si no se requiere ninguna acción.
Sí
last_error
objeto
El último error asociado a esta ejecución. Será null si no hay errores.
Sí
expires_at
integer
Marca de tiempo de Unix (en segundos) para cuando expire la ejecución.
Sí
started_at
integer
Marca de tiempo de Unix (en segundos) para cuando se inició la ejecución.
Sí
cancelled_at
integer
Marca de tiempo de Unix (en segundos) para cuando se canceló la ejecución.
Sí
failed_at
integer
Marca de tiempo de Unix (en segundos) para cuando se produjo un error en la ejecución.
Sí
completed_at
integer
Marca de tiempo de Unix (en segundos) para cuando se completó la ejecución.
Sí
incomplete_details
objeto
Detalles sobre por qué la ejecución está incompleta. Se null si la ejecución no está incompleta.
Sí
modelo
string
Modelo que el asistente usó para esta ejecución.
Sí
detalladas
string
Las instrucciones que el asistente usó para esta ejecución.
Sí
tools
array
Lista de herramientas que el asistente usó para esta ejecución.
Sí
[]
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
Estadísticas de uso relacionadas con la ejecución. Este valor se null si la ejecución no está en un estado terminal (es decir, in_progress, queued, etcetera).
Sí
temperatura
number
Temperatura de muestreo utilizada para esta ejecución. Si no se establece, por defecto es 1.
No
top_p
number
Valor de muestreo de núcleo utilizado para esta ejecución. Si no se establece, por defecto es 1.
No
max_prompt_tokens
integer
Número máximo de tokens de solicitud especificados que se usaron durante el transcurso de la ejecución.
Sí
max_completion_tokens
integer
Número máximo de tokens de finalización especificados que se usaron durante el transcurso de la ejecución.
Controla la herramienta (si existe) a la que llama el modelo. none significa que el modelo no llamará a ninguna herramienta, sino que generará un mensaje. auto es el valor predeterminado y significa que el modelo puede elegir entre generar un mensaje o llamar a una herramienta. Especificar una función determinada como {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta.
Especifica el formato que debe generar el modelo. Compatible con los modelos GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.
Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado. Obtenga más información en la guía de salidas estructuradas.
Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo sea JSON válido.
Importante: Cuando utilice el modo JSON, también deberá instruir usted mismo al modelo para que produzca JSON a través de un mensaje del sistema o del usuario. Sin esta instrucción, el modelo puede generar una secuencia de espacios en blanco sin fin hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.
Sí
Propiedades de required_action
type
Nombre
Escribir
Descripción
Valor predeterminado
type
cadena
Por ahora, siempre es submit_tool_outputs.
submit_tool_outputs
Nombre
Escribir
Descripción
Valor predeterminado
tool_calls
array
Una lista de las llamadas a herramientas pertinentes.
Propiedades de last_error
code
Nombre
Escribir
Descripción
Valor predeterminado
code
string
Uno de estos valores: server_error o rate_limit_exceeded.
message
Nombre
Escribir
Descripción
Valor predeterminado
message
string
Una descripción legible del error.
Propiedades de incomplete_details
reason
Nombre
Escribir
Descripción
Valor predeterminado
reason
string
Motivo por el que la ejecución está incompleta. Esto apuntará a qué límite de tokens específico se alcanzó durante el transcurso de la ejecución.
object Enum: runObjectType
Valor
Descripción
thread.run
Tipo de objeto, que siempre es thread.run
status Enum: RunObjectStatus
Valor
Descripción
En cola
Estado en cola
in_progress
Estado de in_progress
requires_action
Estado de required_action
cancelando
Estado de cancelación
cancelled
Estado cancelado
con errores
El estado con errores
completada
El estado completado
expirado
Estado expirado
createRunRequest
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
assistant_id
string
Identificador del asistente que se va a usar para ejecutar esta ejecución.
Sí
modelo
string
Identificador del modelo que se va a usar para ejecutar esta ejecución. Si se proporciona un valor aquí, invalidará el nombre de la implementación de modelo asociado al asistente. Si no es así, se usará el modelo asociado al asistente.
No
detalladas
string
Invalidar el mensaje predeterminado del sistema del asistente. Esto resulta útil para modificar el comportamiento por ejecución.
No
additional_instructions
string
Anexa instrucciones adicionales al final de las instrucciones para la ejecución. Esto resulta útil para modificar el comportamiento por ejecución sin invalidar otras instrucciones.
No
additional_messages
array
Agrega mensajes adicionales al subproceso antes de crear la ejecución.
No
tools
array
Invalide las herramientas que el asistente puede usar para esta ejecución. Esto resulta útil para modificar el comportamiento por ejecución.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
temperatura
number
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
No
1
top_p
number
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o la temperatura, pero no ambos.
No
1
flujo
boolean
Si true, devuelve una secuencia de eventos que se producen durante los eventos enviados por el servidor, finalizando cuando la ejecución entra en un estado de terminal con un data: [DONE] mensaje.
No
max_prompt_tokens
integer
Número máximo de tokens de solicitud que se pueden usar durante el transcurso de la ejecución. La ejecución hará un mejor esfuerzo para usar solo el número de tokens de solicitud especificados, en varios turnos de la ejecución. Si la ejecución supera el número de tokens de solicitud especificados, la ejecución finalizará con el estado incomplete. Consulte incomplete_details para obtener más información.
No
max_completion_tokens
integer
Número máximo de tokens de finalización que se pueden usar durante el transcurso de la ejecución. La ejecución hará un mejor esfuerzo para usar solo el número de tokens de finalización especificados, en varios turnos de la ejecución. Si la ejecución supera el número de tokens de finalización especificados, la ejecución finalizará con el estado incomplete. Consulte incomplete_details para obtener más información.
Controla la herramienta (si existe) a la que llama el modelo. none significa que el modelo no llamará a ninguna herramienta, sino que generará un mensaje. auto es el valor predeterminado y significa que el modelo puede elegir entre generar un mensaje o llamar a una herramienta. Especificar una función determinada como {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta.
Especifica el formato que debe generar el modelo. Compatible con los modelos GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.
Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado. Obtenga más información en la guía de salidas estructuradas.
Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo sea JSON válido.
Importante: Cuando utilice el modo JSON, también deberá instruir usted mismo al modelo para que produzca JSON a través de un mensaje del sistema o del usuario. Sin esta instrucción, el modelo puede generar una secuencia de espacios en blanco sin fin hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.
No
listRunsResponse
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
objeto
string
Sí
data
array
Sí
first_id
string
Sí
last_id
string
Sí
has_more
boolean
Sí
modifyRunRequest
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
submitToolOutputsRunRequest
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
tool_outputs
array
Lista de herramientas para las que se envían las salidas.
Sí
flujo
boolean
Si true, devuelve una secuencia de eventos que se producen durante los eventos enviados por el servidor, finalizando cuando la ejecución entra en un estado de terminal con un data: [DONE] mensaje.
No
runToolCallObject
Objetos de llamada de herramienta
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador de la llamada a la herramienta. Se debe hacer referencia a este identificador al enviar las salidas de la herramienta mediante las salidas de la herramienta Submit para ejecutar el punto de conexión.
Sí
type
cadena
El tipo de herramienta que llama a la salida es necesario. Por ahora, siempre es function.
Sí
function
objeto
Definición de la función.
Sí
Propiedades de la función
nombre
Nombre
Escribir
Descripción
Valor predeterminado
nombre
string
El nombre de la función.
argumentos
Nombre
Escribir
Descripción
Valor predeterminado
argumentos
string
Argumentos que el modelo espera pasar a la función.
type Enum: RunToolCallObjectType
Valor
Descripción
function
createThreadAndRunRequest
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
assistant_id
string
Identificador del asistente que se va a usar para ejecutar esta ejecución.
Identificador del modelo que se va a usar para ejecutar esta ejecución. Si se proporciona un valor aquí, invalidará el nombre de la implementación de modelo asociado al asistente. Si no es así, se usará el modelo asociado al asistente.
No
detalladas
string
Invalidar el mensaje predeterminado del sistema del asistente. Esto resulta útil para modificar el comportamiento por ejecución.
No
tools
array
Invalide las herramientas que el asistente puede usar para esta ejecución. Esto resulta útil para modificar el comportamiento por ejecución.
No
tool_resources
objeto
Conjunto de recursos que usan las herramientas del asistente. Los recursos son específicos del tipo de herramienta. Por ejemplo, la herramienta code_interpreter requiere una lista de identificadores de archivo, mientras que la file_search herramienta requiere una lista de identificadores de almacén de vectores.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
temperatura
number
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
No
1
top_p
number
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o la temperatura, pero no ambos.
No
1
flujo
boolean
Si true, devuelve una secuencia de eventos que se producen durante los eventos enviados por el servidor, finalizando cuando la ejecución entra en un estado de terminal con un data: [DONE] mensaje.
Opciones para la respuesta de streaming. Establezca este valor solo cuando defina stream: true.
No
Ninguno
max_prompt_tokens
integer
Número máximo de tokens de solicitud que se pueden usar durante el transcurso de la ejecución. La ejecución hará un mejor esfuerzo para usar solo el número de tokens de solicitud especificados, en varios turnos de la ejecución. Si la ejecución supera el número de tokens de solicitud especificados, la ejecución finalizará con el estado incomplete. Consulte incomplete_details para obtener más información.
No
max_completion_tokens
integer
Número máximo de tokens de finalización que se pueden usar durante el transcurso de la ejecución. La ejecución hará un mejor esfuerzo para usar solo el número de tokens de finalización especificados, en varios turnos de la ejecución. Si la ejecución supera el número de tokens de finalización especificados, la ejecución finalizará con el estado incomplete. Consulte incomplete_details para obtener más información.
Controla la herramienta (si existe) a la que llama el modelo. none significa que el modelo no llamará a ninguna herramienta, sino que generará un mensaje. auto es el valor predeterminado y significa que el modelo puede elegir entre generar un mensaje o llamar a una herramienta. Especificar una función determinada como {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta.
Especifica el formato que debe generar el modelo. Compatible con los modelos GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.
Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado. Obtenga más información en la guía de salidas estructuradas.
Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo sea JSON válido.
Importante: Cuando utilice el modo JSON, también deberá instruir usted mismo al modelo para que produzca JSON a través de un mensaje del sistema o del usuario. Sin esta instrucción, el modelo puede generar una secuencia de espacios en blanco sin fin hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.
No
Propiedades de tool_resources
code_interpreter
Nombre
Escribir
Descripción
Valor predeterminado
file_ids
array
Lista de identificadores de archivo disponibles para la herramienta code_interpreter. Puede haber un máximo de 20 archivos asociados con la herramienta.
[]
file_search
Nombre
Escribir
Descripción
Valor predeterminado
vector_store_ids
array
Identificador del almacén de vectores adjunto a este asistente. Puede haber un máximo de un almacén de vectores asociado al asistente.
threadObject
Representa un subproceso que contiene mensajes.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador al que se puede hacer referencia en puntos de conexión de API.
Sí
objeto
string
Tipo de objeto, que siempre es thread.
Sí
created_at
integer
Marca de tiempo Unix (en segundos) para el momento en que se creó el subproceso.
Sí
tool_resources
objeto
Conjunto de recursos que están disponibles para las herramientas del asistente en este subproceso. Los recursos son específicos del tipo de herramienta. Por ejemplo, la herramienta code_interpreter requiere una lista de identificadores de archivo, mientras que la file_search herramienta requiere una lista de identificadores de almacén de vectores.
Sí
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
Sí
Propiedades de tool_resources
code_interpreter
Nombre
Escribir
Descripción
Valor predeterminado
file_ids
array
Lista de identificadores de archivo disponibles para la herramienta code_interpreter. Puede haber un máximo de 20 archivos asociados con la herramienta.
[]
file_search
Nombre
Escribir
Descripción
Valor predeterminado
vector_store_ids
array
Almacén de vectores adjunto a este subproceso. Puede haber un máximo de un almacén de vectores conectado al subproceso.
Objeto enumeración: ThreadObjectType
Valor
Descripción
thread
Tipo de objeto de subproceso que siempre es thread
createThreadRequest
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
messages
array
Lista de mensajes con los que iniciar el subproceso.
No
tool_resources
objeto
Conjunto de recursos que están disponibles para las herramientas del asistente en este subproceso. Los recursos son específicos del tipo de herramienta. Por ejemplo, la herramienta code_interpreter requiere una lista de identificadores de archivo, mientras que la file_search herramienta requiere una lista de identificadores de almacén de vectores.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
Propiedades de tool_resources
code_interpreter
Nombre
Escribir
Descripción
Valor predeterminado
file_ids
array
Lista de identificadores de archivo disponibles para la herramienta code_interpreter. Puede haber un máximo de 20 archivos asociados con la herramienta.
[]
file_search
Nombre
Escribir
Descripción
Valor predeterminado
vector_store_ids
array
Almacén de vectores adjunto a este subproceso. Puede haber un máximo de un almacén de vectores conectado al subproceso.
vector_stores
array
Asistente para crear un almacén de vectores con file_ids y adjuntarlo a este subproceso. Puede haber un máximo de un almacén de vectores conectado al subproceso.
modifyThreadRequest
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
tool_resources
objeto
Conjunto de recursos que están disponibles para las herramientas del asistente en este subproceso. Los recursos son específicos del tipo de herramienta. Por ejemplo, la herramienta code_interpreter requiere una lista de identificadores de archivo, mientras que la file_search herramienta requiere una lista de identificadores de almacén de vectores.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
Propiedades de tool_resources
code_interpreter
Nombre
Escribir
Descripción
Valor predeterminado
file_ids
array
Lista de identificadores de archivo disponibles para la code_interpreter herramienta. Puede haber un máximo de 20 archivos asociados con la herramienta.
[]
file_search
Nombre
Escribir
Descripción
Valor predeterminado
vector_store_ids
array
Almacén de vectores adjunto a este subproceso. Puede haber un máximo de un almacén de vectores conectado al subproceso.
Estado del objeto de respuesta del subproceso eliminado que es thread.deleted
listThreadsResponse
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
objeto
string
Sí
data
array
Sí
first_id
string
Sí
last_id
string
Sí
has_more
boolean
Sí
messageObject
Representa un mensaje dentro de un subproceso.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador al que se puede hacer referencia en puntos de conexión de API.
Sí
objeto
string
Tipo de objeto, que siempre es thread.message.
Sí
created_at
integer
Marca de tiempo Unix (en segundos) para el momento en que se creó el mensaje.
Sí
thread_id
string
Identificador de subproceso al que pertenece este mensaje.
Sí
estado
string
Estado del mensaje, que puede ser in_progress, incomplete o completed.
Sí
incomplete_details
objeto
En un mensaje incompleto, detalles sobre por qué el mensaje está incompleto.
Sí
completed_at
integer
Marca de tiempo Unix (en segundos) para el momento en que se creó el mensaje.
Sí
incomplete_at
integer
Marca de tiempo de Unix (en segundos) para cuando el mensaje se marcó como incompleto.
Sí
rol
string
Entidad que generó el mensaje. Uno de estos valores: user o assistant.
Sí
content
array
Contenido del mensaje en matriz de texto o imágenes.
Sí
assistant_id
string
Si procede, el identificador del asistente que creó este mensaje.
Sí
run_id
string
Si procede, el identificador de la ejecución asociada a la creación de este mensaje.
Sí
datos adjuntos
array
Lista de archivos adjuntos al mensaje y las herramientas a las que se agregaron.
Sí
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
Sí
Propiedades de incomplete_details
reason
Nombre
Escribir
Descripción
Valor predeterminado
reason
string
El motivo por el que el mensaje está incompleto.
enumeración deobjeto: MessageObjectType
Valor
Descripción
thread.message
Tipo de objeto de mensaje que es thread.message
status Enum: MessageObjectStatus
Valor
Descripción
in_progress
incomplete
completada
role Enum: MessageObjectRole
Valor
Descripción
usuario
assistant
messageDeltaObject
Representa un delta de mensaje, es decir, los campos modificados de un mensaje durante el streaming.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador del mensaje, al que se puede hacer referencia en puntos de conexión de API.
Sí
objeto
string
Tipo de objeto, que siempre es thread.message.delta.
Sí
delta
objeto
Delta que contiene los campos que han cambiado en el mensaje.
Sí
Propiedades de delta
rol
Nombre
Escribir
Descripción
Valor predeterminado
rol
string
Entidad que generó el mensaje. Uno de estos valores: user o assistant.
content
Nombre
Escribir
Descripción
Valor predeterminado
content
array
Contenido del mensaje en matriz de texto o imágenes.
Enumeración de objeto: MessageDeltaObjectType
Valor
Descripción
thread.message.delta
createMessageRequest
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
rol
string
Rol de la entidad que está creando el mensaje. Los valores permitidos son: - user: indica que un usuario real envía el mensaje y se debe usar en la mayoría de los casos para representar mensajes generados por el usuario. - assistant: indica que el asistente genera el mensaje. Use este valor para insertar mensajes del asistente en la conversación.
Sí
content
string
Contenido del mensaje.
Sí
datos adjuntos
array
Lista de archivos adjuntos al mensaje y a las herramientas a las que se deben agregar.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
Enumeración de rol: CreateMessageRequestRole
Valor
Descripción
usuario
assistant
modifyMessageRequest
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
deleteMessageResponse
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Sí
deleted
boolean
Sí
objeto
string
Sí
Enumeración de objeto: DeleteMessageResponseObject
Valor
Descripción
thread.message.deleted
Estado del objeto de respuesta del mensaje de eliminación
listMessagesResponse
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
objeto
string
Sí
data
array
Sí
first_id
string
Sí
last_id
string
Sí
has_more
boolean
Sí
messageContentImageFileObject
Hace referencia a un archivo de imagen en el contenido de un mensaje.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Siempre es image_file.
Sí
image_file
objeto
Sí
Propiedades de image_file
file_id
Nombre
Escribir
Descripción
Valor predeterminado
file_id
string
Identificador de archivo de la imagen en el contenido del mensaje.
Enumeración de tipo: MessageContentImageFileObjectType
Valor
Descripción
image_file
Tipo de archivo de imagen de contenido del mensaje
messageContentTextObject
Contenido de texto que forma parte de un mensaje.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Siempre es text.
Sí
text
objeto
Sí
Propiedades para texto
value
Nombre
Escribir
Descripción
Valor predeterminado
value
string
Los datos que componen el texto.
annotations
Nombre
Escribir
Descripción
Valor predeterminado
annotations
array
Enumeración de tipo: messageContentTextObjectType
Valor
Descripción
text
Tipo de objeto de texto de contenido del mensaje
messageContentTextAnnotationsFileCitationObject
Cita dentro del mensaje que apunta a una cita específica de un archivo específico asociado al asistente o al mensaje. Se genera cuando el asistente usa la herramienta "recuperación" para buscar archivos.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Siempre es file_citation.
Sí
text
string
Texto del contenido del mensaje que debe reemplazarse.
Sí
file_citation
objeto
Sí
start_index
integer
Sí
end_index
integer
Sí
Propiedades de file_citation
file_id
Nombre
Escribir
Descripción
Valor predeterminado
file_id
string
El identificador del archivo específico del que procede la cita.
Enumeración de tipo: FileCitationObjectType
Valor
Descripción
file_citation
Tipo de objeto de cita de archivo
messageContentTextAnnotationsFilePathObject
Dirección URL del archivo que se genera cuando el asistente usó la code_interpreter herramienta para generar un archivo.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Siempre es file_path.
Sí
text
string
Texto del contenido del mensaje que debe reemplazarse.
Sí
file_path
objeto
Sí
start_index
integer
Sí
end_index
integer
Sí
Propiedades de file_path
file_id
Nombre
Escribir
Descripción
Valor predeterminado
file_id
string
Identificador del archivo que se generó.
type Enum: FilePathObjectType
Valor
Descripción
file_path
Tipo de objeto de ruta de acceso de archivo
messageDeltaContentImageFileObject
Hace referencia a un archivo de imagen en el contenido de un mensaje.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
índice
integer
Índice del elemento de contenido del mensaje.
Sí
type
cadena
Siempre es image_file.
Sí
image_file
objeto
No
Propiedades de image_file
file_id
Nombre
Escribir
Descripción
Valor predeterminado
file_id
string
Identificador de archivo de la imagen en el contenido del mensaje.
Enumeración de tipo: MessageDeltaContentImageFileObjectType
Valor
Descripción
image_file
messageDeltaContentTextObject
Contenido de texto que forma parte de un mensaje.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
índice
integer
Índice del elemento de contenido del mensaje.
Sí
type
cadena
Siempre es text.
Sí
text
objeto
No
Propiedades para texto
value
Nombre
Escribir
Descripción
Valor predeterminado
value
string
Los datos que componen el texto.
annotations
Nombre
Escribir
Descripción
Valor predeterminado
annotations
array
Enumeración de tipo: MessageDeltaContentTextObjectType
Cita dentro del mensaje que apunta a una cita específica de un archivo específico asociado al asistente o al mensaje. Se genera cuando el asistente usa la herramienta "file_search" para buscar archivos.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
índice
integer
Índice de la anotación en la parte de contenido de texto.
Sí
type
cadena
Siempre es file_citation.
Sí
text
string
Texto del contenido del mensaje que debe reemplazarse.
No
file_citation
objeto
No
start_index
integer
No
end_index
integer
No
Propiedades de file_citation
file_id
Nombre
Escribir
Descripción
Valor predeterminado
file_id
string
El identificador del archivo específico del que procede la cita.
comillas
Nombre
Escribir
Descripción
Valor predeterminado
comillas
string
Cita específica en el archivo.
Enumeración de tipotype Enum: MessageDeltaContentTextAnnotationsFileCitationObjectType
Valor
Descripción
file_citation
messageDeltaContentTextAnnotationsFilePathObject
Dirección URL del archivo que se genera cuando el asistente usó la code_interpreter herramienta para generar un archivo.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
índice
integer
Índice de la anotación en la parte de contenido de texto.
Sí
type
cadena
Siempre es file_path.
Sí
text
string
Texto del contenido del mensaje que debe reemplazarse.
No
file_path
objeto
No
start_index
integer
No
end_index
integer
No
Propiedades de file_path
file_id
Nombre
Escribir
Descripción
Valor predeterminado
file_id
string
Identificador del archivo que se generó.
type Enum: MessageDeltaContentTextAnnotationsFilePathObjectType
Valor
Descripción
file_path
runStepObject
Representar un paso en la ejecución de una ejecución.
| Nombre | Tipo | Descripción | Obligatorio | Valor predeterminado | |------|------|-------------|----------|---------| | id | cadena | Identificador del paso de ejecución, al que se puede hacer referencia en puntos de conexión de API. | Sí | | | objeto | cadena | El tipo de objeto, que siempre se cancela assistant.run.step``. | Yes | | | created_at | integer | The Unix timestamp (in seconds) for when the run step was created. | Yes | | | assistant_id | string | The ID of the assistant associated with the run step. | Yes | | | thread_id | string | The ID of the thread that was run. | Yes | | | run_id | string | The ID of the run) that this run step is a part of. | Yes | | | type | string | The type of run step, which can be either message_creationortool_calls. | Yes | | | status | string | The status of the run, which can be either in_progress, , error, completado, or expirado. | Yes | | | step_details | [runStepDetailsMessageCreationObject](#runstepdetailsmessagecreationobject) or [runStepDetailsToolCallsObject](#runstepdetailstoolcallsobject) | The details of the run step. | Yes | | | last_error | object | The last error associated with this run step. Will be null' si no hay errores. | Sí | | | expired_at | entero | Marca de tiempo de Unix (en segundos) para cuando el paso de ejecución expiró. Un paso se considera expirado si la ejecución primaria ha expirado. | Sí | | | cancelled_at | entero | Marca de tiempo de Unix (en segundos) para cuando se canceló el paso de ejecución. | Sí | | | failed_at | entero | Marca de tiempo de Unix (en segundos) para cuando se produjo un error en el paso de ejecución. | Sí | | | completed_at | entero | Marca de tiempo de Unix (en segundos) para cuando se complete el paso de ejecución. | Sí | | | metadatos | objeto | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres. | Sí | |
Propiedades de last_error
code
Nombre
Escribir
Descripción
Valor predeterminado
code
string
Uno de estos valores: server_error o rate_limit_exceeded.
message
Nombre
Escribir
Descripción
Valor predeterminado
message
string
Una descripción legible del error.
Enumeración de objeto: RunStepObjectType
Valor
Descripción
assistant.run.step
Tipo de objeto, que siempre es assistant.run.step
type Enum: RunStepObjectType
Valor
Descripción
message_creation
Paso de ejecución de message_creation
tool_calls
Paso de ejecución de tool_calls
Enumeración de estado: RunStepObjectStatus
Valor
Descripción
in_progress
Estado de ejecución in_progress
cancelled
Estado de ejecución cancelado
con errores
Estado de ejecución cancelado
completada
Estado de ejecución cancelado
expirado
Estado de ejecución cancelado
runStepDeltaObject
Representa un delta de paso de ejecución, es decir, los campos modificados de un paso de ejecución durante el streaming.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador del paso de ejecución, al que se puede hacer referencia en puntos de conexión de API.
Sí
objeto
string
Tipo de objeto, que siempre es thread.run.step.delta.
Sí
delta
objeto
Delta que contiene los campos que han cambiado en el paso de ejecución.
Detalles de la creación del mensaje mediante el paso de ejecución.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Siempre "message_creation".
Sí
message_creation
objeto
Sí
Propiedades de message_creation
message_id
Nombre
Escribir
Descripción
Valor predeterminado
message_id
string
Identificador del mensaje creado por este paso de ejecución.
type Enum: RunStepDetailsMessageCreationObjectType
Valor
Descripción
message_creation
runStepDeltaStepDetailsMessageCreationObject
Detalles de la creación del mensaje mediante el paso de ejecución.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Siempre es message_creation.
Sí
message_creation
objeto
No
Propiedades de message_creation
message_id
Nombre
Escribir
Descripción
Valor predeterminado
message_id
string
Identificador del mensaje creado por este paso de ejecución.
type Enum: RunStepDeltaStepDetailsMessageCreationObjectType
Valor
Descripción
message_creation
runStepDetailsToolCallsObject
Detalles de la llamada a la herramienta.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Siempre es tool_calls.
Sí
tool_calls
array
En una matriz de herramientas se llama al paso de ejecución. Se pueden asociar a uno de los tres tipos de herramientas: code_interpreter, retrieval o function.
Sí
type Enum: RunStepDetailsToolCallsObjectType
Valor
Descripción
tool_calls
runStepDeltaStepDetailsToolCallsObject
Detalles de la llamada a la herramienta.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Siempre es tool_calls.
Sí
tool_calls
array
En una matriz de herramientas se llama al paso de ejecución. Se pueden asociar a uno de los tres tipos de herramientas: code_interpreter, file_search o function.
No
Enumeración de tipo: RunStepDeltaStepDetailsToolCallsObjectType
Valor
Descripción
tool_calls
runStepDetailsToolCallsCodeObject
Detalles de la herramienta Intérprete de código en la que se ha implicado la llamada al paso de ejecución.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador de la llamada a la herramienta.
Sí
type
cadena
Tipo de llamada a herramienta. Esto siempre va a ser code_interpreter para este tipo de llamada a herramienta.
Sí
code_interpreter
objeto
Definición de llamada de la herramienta Intérprete de código.
Sí
Propiedades de code_interpreter
input
Nombre
Escribir
Descripción
Valor predeterminado
input
string
Entrada a la llamada a la herramienta De intérprete de código.
outputs
Nombre
Escribir
Descripción
Valor predeterminado
outputs
array
Salidas de la llamada a la herramienta De intérprete de código. El intérprete de código puede generar uno o varios elementos, incluidos texto (logs) o imágenes (image). Cada uno de estos se representa mediante un tipo de objeto diferente.
type Enum: RunStepDetailsToolCallsCodeObjectType
Valor
Descripción
code_interpreter
runStepDeltaStepDetailsToolCallsCodeObject
Detalles de la herramienta Intérprete de código en la que se ha implicado la llamada al paso de ejecución.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
índice
integer
Índice de la llamada a la herramienta en la matriz de llamadas a la herramienta.
Sí
id
string
Identificador de la llamada a la herramienta.
No
type
cadena
Tipo de llamada a herramienta. Esto siempre va a ser code_interpreter para este tipo de llamada a herramienta.
Sí
code_interpreter
objeto
Definición de llamada de la herramienta Intérprete de código.
No
Propiedades de code_interpreter
input
Nombre
Escribir
Descripción
Valor predeterminado
input
string
Entrada a la llamada a la herramienta De intérprete de código.
outputs
Nombre
Escribir
Descripción
Valor predeterminado
outputs
array
Salidas de la llamada a la herramienta De intérprete de código. El intérprete de código puede generar uno o varios elementos, incluidos texto (logs) o imágenes (image). Cada uno de estos se representa mediante un tipo de objeto diferente.
type Enum: RunStepDeltaStepDetailsToolCallsCodeObjectType
Valor
Descripción
code_interpreter
runStepDetailsToolCallsCodeOutputLogsObject
Salida de texto de la llamada a la herramienta De intérprete de código como parte de un paso de ejecución.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
type
cadena
Siempre es logs.
Sí
logs
string
Salida de texto de la llamada a la herramienta De intérprete de código.
Sí
type Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType
type Enum: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
Valor
Descripción
imagen
runStepDetailsToolCallsFileSearchObject
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador de la llamada a la herramienta.
Sí
type
cadena
Tipo de llamada a herramienta. Esto siempre va a ser file_search para este tipo de llamada a herramienta.
Sí
file_search
objeto
Por ahora, esto siempre va a ser un objeto vacío.
Sí
Propiedades de file_search
resultados
Nombre
Escribir
Descripción
Valor predeterminado
resultados
array
Resultados de la búsqueda de archivos.
Enumeración de tipo: RunStepDetailsToolCallsFileSearchObjectType
Valor
Descripción
file_search
runStepDetailsToolCallsFileSearchResultObject
Instancia de resultado de la búsqueda de archivos.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
file_id
string
Identificador del archivo en el que se encontró el resultado.
Sí
file_name
string
Nombre del archivo en el que se encontró el resultado.
Sí
score
number
Puntuación del resultado. Todos los valores deben ser un número de punto flotante entre 0 y 1.
Sí
content
array
Contenido del resultado que se encontró. El contenido solo se incluye si se solicita a través del parámetro include query.
No
runStepDeltaStepDetailsToolCallsFileSearchObject
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
índice
integer
Índice de la llamada a la herramienta en la matriz de llamadas a la herramienta.
Sí
id
string
Identificador de la llamada a la herramienta.
No
type
cadena
Tipo de llamada a herramienta. Esto siempre va a ser retrieval para este tipo de llamada a herramienta.
Sí
file_search
objeto
Por ahora, esto siempre va a ser un objeto vacío.
Sí
Enumeración de tipo: RunStepDeltaStepDetailsToolCallsFileSearchObjectType
Valor
Descripción
file_search
runStepDetailsToolCallsFunctionObject
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador de la llamada a la herramienta.
Sí
type
cadena
Tipo de llamada a herramienta. Esto siempre va a ser function para este tipo de llamada a herramienta.
Sí
function
objeto
Definición de la función a la que se llamó.
Sí
Propiedades de la función
nombre
Nombre
Escribir
Descripción
Valor predeterminado
nombre
string
El nombre de la función.
argumentos
Nombre
Escribir
Descripción
Valor predeterminado
argumentos
string
Argumentos pasados a la función.
output
Nombre
Escribir
Descripción
Valor predeterminado
output
string
La salida de la función. Esto será null si las salidas aún no se han enviado.
Enumeración de tipo: RunStepDetailsToolCallsFunctionObjectType
Valor
Descripción
function
runStepDeltaStepDetailsToolCallsFunctionObject
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
índice
integer
Índice de la llamada a la herramienta en la matriz de llamadas a la herramienta.
Sí
id
string
Identificador de la llamada a la herramienta.
No
type
cadena
Tipo de llamada a herramienta. Esto siempre va a ser function para este tipo de llamada a herramienta.
Sí
function
objeto
Definición de la función a la que se llamó.
No
Propiedades de la función
nombre
Nombre
Escribir
Descripción
Valor predeterminado
nombre
string
El nombre de la función.
argumentos
Nombre
Escribir
Descripción
Valor predeterminado
argumentos
string
Argumentos pasados a la función.
output
Nombre
Escribir
Descripción
Valor predeterminado
output
string
La salida de la función. Esto será null si las salidas aún no se han enviado.
Enumeración de tipo: RunStepDetailsToolCallsFunctionObjectType
Valor
Descripción
function
vectorStoreExpirationAfter
Directiva de expiración de un almacén de vectores.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
delimitador
string
Marca de tiempo de anclaje después de la cual se aplica la directiva de expiración. Anclajes admitidos: last_active_at.
Sí
days
integer
Número de días después del tiempo de delimitador que expirará el almacén de vectores.
Sí
anchor Enum: VectorStoreExpirationAfterAnchor
Valor
Descripción
last_active_at
Marca de tiempo de anclaje después de la cual se aplica la directiva de expiración.
vectorStoreObject
Un almacén vectorial es una colección de archivos procesados que pueden ser usados por la herramienta file_search.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador al que se puede hacer referencia en puntos de conexión de API.
Sí
objeto
enum
Tipo de objeto, que siempre es vector_store. Valores posibles: vector_store
Sí
created_at
integer
Marca de tiempo de Unix (en segundos) para cuando se creó el archivo de mensaje.
Sí
nombre
string
Nombre del almacén de vectores.
Sí
usage_bytes
integer
Número total de bytes usados por los archivos en el almacén de vectores.
Sí
file_counts
objeto
Sí
estado
string
Estado del almacén de vectores, que puede ser expired, in_progress o completed. Un estado de completed indica que el almacén de vectores está listo para su uso.
Directiva de expiración de un almacén de vectores.
No
expires_at
integer
Marca de tiempo de Unix (en segundos) para cuando expire el almacén de vectores.
No
last_active_at
integer
Marca de tiempo de Unix (en segundos) para cuando el almacén de vectores estaba activo por última vez.
Sí
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
Sí
Propiedades de file_counts
in_progress
Nombre
Escribir
Descripción
Valor predeterminado
in_progress
integer
Número de archivos que se están procesando actualmente.
completada
Nombre
Escribir
Descripción
Valor predeterminado
completada
integer
Número de archivos que se han procesado correctamente.
con errores
Nombre
Escribir
Descripción
Valor predeterminado
con errores
integer
Número de archivos que no se han podido procesar.
cancelled
Nombre
Escribir
Descripción
Valor predeterminado
cancelled
integer
Número de archivos cancelados.
total
Nombre
Escribir
Descripción
Valor predeterminado
total
integer
Número total de archivos.
status Enum: VectorStoreObjectStatus
Valor
Descripción
expirado
in_progress
completada
createVectorStoreRequest
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
file_ids
array
Lista de identificadores de archivo que debe usar el almacén de vectores. Útil para herramientas como file_search que pueden tener acceso a archivos.
Estrategia de fragmentación usada para fragmentar los archivos. Si no se establece, usará la estrategia auto. Solo es aplicable si file_ids no está vacío.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
Directiva de expiración de un almacén de vectores.
No
metadata
objeto
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden tener un máximo de 512 caracteres.
No
listVectorStoresResponse
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
objeto
string
Sí
data
array
Sí
first_id
string
Sí
last_id
string
Sí
has_more
boolean
Sí
deleteVectorStoreResponse
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Sí
deleted
boolean
Sí
objeto
string
Sí
Enumeración de objeto: DeleteVectorStoreResponseObject
Valor
Descripción
vector_store.deleted
Estado del objeto de respuesta del almacén de vectores de eliminación
vectorStoreFileObject
Lista de archivos adjuntos a un almacén de vectores.
Nombre
Escribir
Descripción
Necesario
Valor predeterminado
id
string
Identificador al que se puede hacer referencia en puntos de conexión de API.
Sí
objeto
string
Tipo de objeto, que siempre es vector_store.file.
Sí
usage_bytes
integer
El uso total del almacén de vectores en bytes. Tenga en cuenta que este puede ser distinto del tamaño del archivo original.
Sí
created_at
integer
La marca de tiempo Unix (en segundos) de cuando se creó el archivo del almacén vectorial.
Sí
vector_store_id
string
Identificador del almacén de vectores al que está asociado el archivo.
Sí
estado
string
Estado del archivo de almacén de vectores, que puede ser in_progress, completed, cancelled o failed. El estado completed indica que el archivo de almacén de vectores está listo para su uso.
Sí
last_error
objeto
El último error asociado a este archivo de almacén de vectores. Será null si no hay errores.
Estrategia de fragmentación usada para fragmentar los archivos. Si no se establece, usará la estrategia auto. Solo es aplicable si file_ids no está vacío.
No
Propiedades de last_error
code
Nombre
Escribir
Descripción
Valor predeterminado
code
string
Uno de server_error o invalid_file o unsupported_file.
message
Nombre
Escribir
Descripción
Valor predeterminado
message
string
Una descripción legible del error.
Enumeración de objeto: VectorStoreFileObjectType
Valor
Descripción
vector_store.file
Enumeración de estado: VectorStoreFileObjectStatus
Valor
Descripción
in_progress
completada
cancelled
con errores
otherChunkingStrategyResponseParam
Esto se devuelve cuando se desconoce la estrategia de fragmentación. Normalmente, esto se debe a que el archivo se indizó antes de que el concepto chunking_strategy se introdujera en la API.
Los eventos se emiten cada vez que se crea un nuevo objeto, se realiza la transición a un nuevo estado o se transmiten en partes (delta). Por ejemplo, thread.run.created se emite cuando se crea una nueva ejecución, thread.run.completed cuando se completa una ejecución, etc. Cuando un asistente decide crear un mensaje durante una ejecución, emitimos un thread.message.created event, un evento thread.message.in_progress, muchos eventos thread.message.delta y, por último, un evento thread.message.completed.
Puede que agreguemos eventos adicionales a lo largo del tiempo, por lo que se recomienda controlar los eventos desconocidos correctamente en el código.
Obtenga más información sobre cómo usar el SDK de .NET con el servicio Azure OpenAI para que sus aplicaciones mantengan conversaciones con los usuarios en lenguaje natural.