Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En este artículo se proporcionan detalles sobre los puntos de conexión de la API REST de inferencia para Azure OpenAI.
Inferencia del plano de datos
El resto del artículo trata la nueva versión preliminar de la API v1 de la especificación de inferencia del plano de datos de OpenAI Azure. Obtenga más información en nuestra guía del ciclo de vida de la API.
Si busca documentación sobre la versión más reciente de la API de disponibilidad general v1, consulte la API de inferencia del plano de datos de disponibilidad general más reciente.
Create speech
POST {endpoint}/openai/v1/audio/speech?api-version=preview
Genera audio de texto a voz a partir del texto de entrada.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de Microsoft Foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Texto para el que se va a generar audio. La longitud máxima es de 4096 caracteres. | Yes | |
| instructions | string | Controle la voz del audio generado con instrucciones adicionales. No funciona con tts-1 o tts-1-hd. |
No | |
| model | string | Modelo que se va a usar para esta solicitud de texto a voz. | Yes | |
| response_format | object | Formatos de salida de audio admitidos para texto a voz. | No | |
| speed | number | Velocidad de voz para el audio generado. Los valores son válidos en el intervalo de 0,25 a 4,0, con 1,0 los valores predeterminados y superiores correspondientes a una voz más rápida. | No | 1 |
| stream_format | enum | Formato en el que se va a transmitir el audio. Los formatos admitidos son sse y audio.
sse no se admite para tts-1 o tts-1-hd.Valores posibles: sse, audio |
No | |
| voice | object | Yes |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Sintetiza el audio del texto proporcionado.
POST {endpoint}/openai/v1/audio/speech?api-version=preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3",
"model": "tts-1"
}
Respuestas: Código de estado: 200
{
"body": "101010101"
}
Create transcription
POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview
Transcribe el audio en el idioma de entrada.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | object | No | ||
| └─ prefix_padding_ms | integer | Cantidad de audio que se va a incluir antes de que el VAD detecte voz (en milisegundos). | No | 300 |
| └─ silence_duration_ms | integer | Duración del silencio para detectar la detención de voz (en milisegundos). Con valores más cortos, el modelo responderá más rápidamente, pero puede saltar en pausas cortas del usuario. | No | 200 |
| └─ threshold | number | Umbral de confidencialidad (de 0,0 a 1,0) para la detección de actividad de voz. Un umbral superior requerirá audio más alto para activar el modelo y, por tanto, podría funcionar mejor en entornos ruidosos. | No | 0.5 |
| └─ type | enum | Debe establecerse en server_vad para habilitar la fragmentación manual mediante VAD del lado servidor.Valores posibles: server_vad |
No | |
| file | string | Yes | ||
| filename | string | Nombre de archivo opcional o identificador descriptivo al que se va a asociar con los datos de audio. | No | |
| include[] | array | Información adicional que se va a incluir en la respuesta de transcripción.
logprobs devolverá las probabilidades de registro de los tokens en la respuesta para comprender la confianza del modelo en la transcripción.
logprobs solo funciona con response_format establecido json en y solo con los modelos gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribey gpt-4o-mini-transcribe-2025-12-15. |
No | |
| language | string | Idioma del audio de entrada. Proporcionar el idioma de entrada en formato ISO-639-1 (por ejemplo, en) mejorará la precisión y la latencia. |
No | |
| model | string | Modelo que se va a usar para esta solicitud de transcripción. | No | |
| prompt | string | Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe coincidir con el idioma de audio. | No | |
| response_format | object | No | ||
| stream | boolean | Si se establece en true, los datos de respuesta del modelo se transmitirán al cliente a medida que se generan mediante eventos enviados por el servidor. Nota: El streaming no se admite para el whisper-1 modelo y se omitirá. |
No | False |
| temperature | number | Temperatura de muestreo, entre 0 y 1. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. | No | 0 |
| timestamp_granularities[] | array | Granularidades de marca de tiempo que se van a rellenar para esta transcripción.
response_format debe establecerse verbose_json para usar granularidades de marca de tiempo. Se admiten o ambas opciones: word, o segment. Nota: No hay ninguna latencia adicional para las marcas de tiempo de segmento, pero la generación de marcas de tiempo de palabra incurre en una latencia adicional. |
No | ['segment'] |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureAudioTranscriptionResponse | |
| text/plain | string |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Obtiene texto transcrito y metadatos asociados de los datos de audio hablados proporcionados.
POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview
{
"file": "<binary audio data>",
"model": "whisper-1",
"response_format": "text"
}
Respuestas: Código de estado: 200
{
"body": "plain text when requesting text, srt, or vtt"
}
Create translation
POST {endpoint}/openai/v1/audio/translations?api-version=preview
Obtiene el texto transcrito en inglés y los metadatos asociados de los datos de audio hablados proporcionados.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Yes | ||
| filename | string | Nombre de archivo opcional o identificador descriptivo al que se va a asociar con los datos de audio. | No | |
| model | string | Modelo que se va a usar para esta solicitud de traducción. | No | |
| prompt | string | Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe estar en inglés. | No | |
| response_format | object | No | ||
| temperature | number | Temperatura de muestreo, entre 0 y 1. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. | No | 0 |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureAudioTranslationResponse | |
| text/plain | string |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Obtiene el texto transcrito en inglés y los metadatos asociados de los datos de audio hablados proporcionados.
POST {endpoint}/openai/v1/audio/translations?api-version=preview
{
"file": "<binary audio data>",
"model": "whisper-1",
"response_format": "text"
}
Respuestas: Código de estado: 200
{
"body": "plain text when requesting text, srt, or vtt"
}
Creación de la finalización del chat
POST {endpoint}/openai/v1/chat/completions?api-version=preview
Crea una finalización de chat.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parámetros para la salida de audio. Obligatorio cuando se solicita la salida de audio con modalities: ["audio"]. |
No | |
| └─ format | enum | Especifica el formato de audio de salida. Debe ser uno de los elementos wav, mp3, flacopuso pcm16.Valores posibles: wav, aac, mp3, flac, , opus, pcm16 |
No | |
| └─ voice | object | No | ||
| data_sources | array | Los orígenes de datos que se van a usar para la característica En sus datos, exclusivos de Azure OpenAI. | No | |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que el modelo repita la misma línea textualmente. | No | 0 |
| function_call | enum | Especificar una función determinada a través de {"name": "my_function"} obliga al modelo a llamar a esa función.Valores posibles: none, auto |
No | |
| functions | array | En desuso en favor de tools.Una lista de funciones para las que el modelo puede generar entradas JSON. |
No | |
| logit_bias | object | Modifique la probabilidad de que aparezcan los tokens especificados en la finalización. Acepta un objeto JSON que asigna tokens (especificados por su identificador de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará por modelo, pero los valores entre -1 y 1 deben disminuir o aumentar la probabilidad de selección; los valores como -100 o 100 deben dar lugar a una prohibición o selección exclusiva del token correspondiente. | No | None |
| logprobs | boolean | Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en de contentmessage. |
No | False |
| max_completion_tokens | integer | Límite superior para el número de tokens que se pueden generar para una finalización, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| max_tokens | integer | Número máximo de tokens que se pueden generar en la finalización del chat. Este valor se puede usar para controlar los costos de texto generado a través de la API. Este valor ahora está en desuso en favor de max_completion_tokensy no es compatible con los modelos de la serie o1. |
No | |
| messages | array | Una lista de mensajes que componen la conversación hasta ahora. Según el modelo que use, se admiten diferentes tipos de mensajes (modalidades), como texto, imágenes y audio. | Yes | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| modalities | object | Tipos de salida que desea que genere el modelo. La mayoría de los modelos son capaces de generar texto, que es el valor predeterminado: ["text"]El gpt-4o-audio-preview modelo también se puede usar para generar audio. Para solicitar que este modelo genere respuestas de texto y audio, puede usar:["text", "audio"] |
No | |
| model | string | Identificador de implementación del modelo que se va a usar para la solicitud de finalización del chat. | Yes | |
| n | integer | Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada. Tenga en cuenta que se le cobrará en función del número de tokens generados en todas las opciones. Mantenga n el modo de 1 minimizar los costos. |
No | 1 |
| parallel_tool_calls | object | Indica si se debe habilitar la llamada a funciones paralelas durante el uso de la herramienta. | No | |
| prediction | object | Representación base de la salida predicha de un modelo. | No | |
| └─ type | OpenAI.ChatOutputPredictionType | No | ||
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que el modelo hable sobre nuevos temas. | No | 0 |
| reasoning_effort | object |
Solo modelos de la serie o Restringe el esfuerzo en el razonamiento de los modelos de razonamiento. Actualmente, los valores admitidos son low, mediumy high. Reducir el esfuerzo de razonamiento puede dar lugar a respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta. |
No | |
| response_format | object | No | ||
| └─ type | enum | Valores posibles: text, json_object, json_schema |
No | |
| seed | integer | Esta característica está en beta. Si se especifica, nuestro sistema hará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con los mismos seed parámetros y deben devolver el mismo resultado.El determinismo no está garantizado y debe hacer referencia al system_fingerprint parámetro de respuesta para supervisar los cambios en el back-end. |
No | |
| stop | object | No se admite con los modelos o3 de razonamiento más recientes y o4-mini.Hasta 4 secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención. |
No | |
| store | boolean | Si desea almacenar o no la salida de esta solicitud de finalización de chat para su uso en productos de evaluación o destilación de modelos. | No | False |
| stream | boolean | Si se establece en true, los datos de respuesta del modelo se transmitirán al cliente a medida que se generan mediante eventos enviados por el servidor. | No | False |
| stream_options | object | Opciones para la respuesta de streaming. Establézcalo solo cuando establezca stream: true. |
No | |
| └─ include_usage | boolean | Si se establece, se transmitirá un fragmento adicional antes del data: [DONE] mensaje. El usage campo de este fragmento muestra las estadísticas de uso del token para toda la solicitud y el choices campo siempre será una matriz vacía.Todos los demás fragmentos también incluirán un usage campo, pero con un valor NULL.
NOTA: Si se interrumpe la secuencia, es posible que no reciba el fragmento de uso final que contiene el uso total del token para la solicitud. |
No | |
| temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | 1 |
| tool_choice | OpenAI.ChatCompletionToolChoiceOption | Controla la herramienta a la que llama el modelo (si existe).none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje.auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas.required significa que el modelo debe llamar a una o varias herramientas.Especificar una herramienta determinada a través de {"type": "function", "function": {"name": "my_function"}} fuerza al modelo a llamar a esa herramienta.none es el valor predeterminado cuando no hay herramientas presentes.
auto es el valor predeterminado si las herramientas están presentes. |
No | |
| tools | array | Una lista de herramientas a las que puede llamar el modelo. Actualmente, solo se admiten funciones como una herramienta. Úselo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. Se admite un máximo de 128 funciones. | No | |
| top_logprobs | integer | Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada. | No | |
| top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | 1 |
| user | string | Identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos. | No | |
| user_security_context | AzureUserSecurityContext | El contexto de seguridad del usuario contiene varios parámetros que describen la propia aplicación y el usuario final que interactúa con la aplicación. Estos campos ayudan a los equipos de operaciones de seguridad a investigar y mitigar los incidentes de seguridad al proporcionar un enfoque integral para proteger las aplicaciones de inteligencia artificial. Learn más sobre la protección de aplicaciones de inteligencia artificial mediante Microsoft Defender para la nube. | No |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureCreateChatCompletionResponse | |
| text/event-stream | AzureCreateChatCompletionStreamResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Crea una finalización para el símbolo del sistema, los parámetros y el modelo elegido proporcionados.
POST {endpoint}/openai/v1/chat/completions?api-version=preview
{
"model": "gpt-4o-mini",
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh?..."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Create embedding
POST {endpoint}/openai/v1/embeddings?api-version=preview
Crea un vector de inserción que representa el texto de entrada.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | Número de dimensiones que deben tener las incrustaciones de salida resultantes. Solo se admite en text-embedding-3 modelos posteriores y posteriores. |
No | |
| encoding_format | enum | Formato en el que se devuelven las incrustaciones. Puede ser float o base64.Valores posibles: float, base64 |
No | |
| input | string o array | Yes | ||
| model | string | Modelo que se va a usar para la solicitud de inserción. | Yes | |
| user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | No |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.CreateEmbeddingResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Devuelve las instituciones de un mensaje determinado.
POST {endpoint}/openai/v1/embeddings?api-version=preview
{
"model": "text-embedding-ada-002",
"input": [
"this is a test"
]
}
Respuestas: Código de estado: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05,
0.0032178196,
-0.020365695,
-0.009631885,
-0.007647093,
0.0033837722,
-0.026764825,
-0.010501476,
0.020219658,
0.024640633,
-0.0066912062,
-0.036456455,
-0.0040923897,
-0.013966565,
0.017816665,
0.005366905,
0.022835068,
0.0103488,
-0.0010811808,
-0.028942121,
0.0074280356,
-0.017033368,
0.0074877786,
0.021640211,
0.002499245,
0.013316032,
0.0021524043,
0.010129742,
0.0054731146,
0.03143805,
0.014856071,
0.0023366117,
-0.0008243692,
0.022781964,
0.003038591,
-0.017617522,
0.0013309394,
0.0022154662,
0.00097414135,
0.012041516,
-0.027906578,
-0.023817508,
0.013302756,
-0.003003741,
-0.006890349,
0.0016744611
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
List evals
GET {endpoint}/openai/v1/evals?api-version=preview
Enumera las evaluaciones de un proyecto.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| aoai-evals | header | Yes | string Valores posibles: preview |
Habilita el acceso a AOAI Evals, una característica en versión preliminar. Esta característica requiere que el encabezado "aoai-evals" se establezca en "preview". |
| after | query | No | string | Identificador de la última eval de la solicitud de paginación anterior. |
| limit | query | No | integer | Límite del número de valores que se van a devolver en una única respuesta de paginación. |
| order | query | No | string Valores posibles: asc, desc |
Criterio de ordenación de valores por marca de tiempo. Se usa asc para el orden ascendente o desc para el orden descendente. |
| order_by | query | No | string Valores posibles: created_at, updated_at |
Las valoraciones se pueden ordenar por hora de creación o hora de última actualización. Use created_at para la hora de creación o updated_at para la hora de la última actualización. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalList |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Createeval
POST {endpoint}/openai/v1/evals?api-version=preview
Cree la estructura de una evaluación que se puede usar para probar el rendimiento de un modelo.
Una evaluación es un conjunto de criterios de prueba y un origen de datos. Después de crear una evaluación, puede ejecutarla en diferentes modelos y parámetros de modelo. Se admiten varios tipos de calificadores y orígenes de datos.
NOTA: Esta Azure API de OpenAI está en versión preliminar y está sujeta a cambios.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| aoai-evals | header | Yes | string Valores posibles: preview |
Habilita el acceso a AOAI Evals, una característica en versión preliminar. Esta característica requiere que el encabezado "aoai-evals" se establezca en "preview". |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data_source_config | object | Yes | ||
| └─ type | OpenAI.EvalDataSourceConfigType | No | ||
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| name | string | Nombre de la evaluación. | No | |
| statusCode | enum | Valores posibles: 201 |
Yes | |
| testing_criteria | array | Una lista de calificaciones para todas las ejecuciones de evaluación en este grupo. Los calificadores pueden hacer referencia a variables en el origen de datos mediante la notación de llaves dobles, como {{item.variable_name}}. Para hacer referencia a la salida del modelo, use el sample espacio de nombres (es decir, {{sample.output_text}}). |
Yes |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Get eval
GET {endpoint}/openai/v1/evals/{eval_id}?api-version=preview
Recupere una evaluación por su identificador. Recupera una evaluación por su identificador.
NOTA: Esta Azure API de OpenAI está en versión preliminar y está sujeta a cambios.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| aoai-evals | header | Yes | string Valores posibles: preview |
Habilita el acceso a AOAI Evals, una característica en versión preliminar. Esta característica requiere que el encabezado "aoai-evals" se establezca en "preview". |
| eval_id | path | Yes | string |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Update eval
POST {endpoint}/openai/v1/evals/{eval_id}?api-version=preview
Actualizar propiedades select, mutables de una evaluación especificada.
NOTA: Esta Azure API de OpenAI está en versión preliminar y está sujeta a cambios.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| aoai-evals | header | Yes | string Valores posibles: preview |
Habilita el acceso a AOAI Evals, una característica en versión preliminar. Esta característica requiere que el encabezado "aoai-evals" se establezca en "preview". |
| eval_id | path | Yes | string |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | OpenAI.MetadataPropertyForRequest | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| name | string | No |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Delete eval
DELETE {endpoint}/openai/v1/evals/{eval_id}?api-version=preview
Elimine una evaluación especificada.
NOTA: Esta Azure API de OpenAI está en versión preliminar y está sujeta a cambios.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| aoai-evals | header | Yes | string Valores posibles: preview |
Habilita el acceso a AOAI Evals, una característica en versión preliminar. Esta característica requiere que el encabezado "aoai-evals" se establezca en "preview". |
| eval_id | path | Yes | string |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obtención de ejecuciones de valor
GET {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview
Recupere una lista de ejecuciones para una evaluación especificada.
NOTA: Esta Azure API de OpenAI está en versión preliminar y está sujeta a cambios.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| aoai-evals | header | Yes | string Valores posibles: preview |
Habilita el acceso a AOAI Evals, una característica en versión preliminar. Esta característica requiere que el encabezado "aoai-evals" se establezca en "preview". |
| eval_id | path | Yes | string | |
| after | query | No | string | |
| limit | query | No | integer | |
| order | query | No | string Valores posibles: asc, desc |
|
| status | query | No | string Valores posibles: queued, in_progress, completed, , canceled, failed |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunList |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Creación de una ejecución de valor
POST {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview
Cree una nueva ejecución de evaluación, comenzando el proceso de calificación.
NOTA: Esta Azure API de OpenAI está en versión preliminar y está sujeta a cambios.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| aoai-evals | header | Yes | string Valores posibles: preview |
Habilita el acceso a AOAI Evals, una característica en versión preliminar. Esta característica requiere que el encabezado "aoai-evals" se establezca en "preview". |
| eval_id | path | Yes | string |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data_source | object | Yes | ||
| └─ type | OpenAI.EvalRunDataSourceType | No | ||
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| name | string | Nombre de la ejecución. | No |
Responses
Código de estado: 201
Descripción: la solicitud se ha realizado correctamente y se ha creado un nuevo recurso como resultado.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obtención de la ejecución de eval
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview
Recupere una evaluación específica ejecutada por su identificador.
NOTA: Esta Azure API de OpenAI está en versión preliminar y está sujeta a cambios.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| aoai-evals | header | Yes | string Valores posibles: preview |
Habilita el acceso a AOAI Evals, una característica en versión preliminar. Esta característica requiere que el encabezado "aoai-evals" se establezca en "preview". |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Cancelación de la ejecución de eval
POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview
Cancele una evaluación específica ejecutada por su identificador.
NOTA: Esta Azure API de OpenAI está en versión preliminar y está sujeta a cambios.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| aoai-evals | header | Yes | string Valores posibles: preview |
Habilita el acceso a AOAI Evals, una característica en versión preliminar. Esta característica requiere que el encabezado "aoai-evals" se establezca en "preview". |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Deleteevalrun
DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview
Elimine una evaluación específica ejecutada por su identificador.
NOTA: Esta Azure API de OpenAI está en versión preliminar y está sujeta a cambios.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| aoai-evals | header | Yes | string Valores posibles: preview |
Habilita el acceso a AOAI Evals, una característica en versión preliminar. Esta característica requiere que el encabezado "aoai-evals" se establezca en "preview". |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obtención de elementos de salida de ejecución de eval
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items?api-version=preview
Obtiene una lista de elementos de salida para una ejecución de evaluación especificada.
NOTA: Esta Azure API de OpenAI está en versión preliminar y está sujeta a cambios.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| aoai-evals | header | Yes | string Valores posibles: preview |
Habilita el acceso a AOAI Evals, una característica en versión preliminar. Esta característica requiere que el encabezado "aoai-evals" se establezca en "preview". |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string | |
| after | query | No | string | |
| limit | query | No | integer | |
| status | query | No | string Valores posibles: fail, pass |
|
| order | query | No | string Valores posibles: asc, desc |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunOutputItemList |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obtención del elemento de salida de ejecución de eval
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}?api-version=preview
Recupere un elemento de salida específico de una evaluación ejecutada por su identificador.
NOTA: Esta Azure API de OpenAI está en versión preliminar y está sujeta a cambios.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| aoai-evals | header | Yes | string Valores posibles: preview |
Habilita el acceso a AOAI Evals, una característica en versión preliminar. Esta característica requiere que el encabezado "aoai-evals" se establezca en "preview". |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string | |
| output_item_id | path | Yes | string |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunOutputItem |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Create file
POST {endpoint}/openai/v1/files?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | object | Yes | ||
| └─ anchor | AzureFileExpiryAnchor | No | ||
| └─ seconds | integer | No | ||
| file | string | Yes | ||
| purpose | enum | Propósito previsto del archivo cargado. Uno de los siguientes: assistants: se usa en la API batchde asistentes: : se usa en batch API - fine-tune: se usa para la optimización evals- : se usa para conjuntos de datos eval.Valores posibles: assistants, batch, fine-tune, evals |
Yes |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIFile |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
POST {endpoint}/openai/v1/files?api-version=preview
List files
GET {endpoint}/openai/v1/files?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| purpose | query | No | string |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureListFilesResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Retrieve file
GET {endpoint}/openai/v1/files/{file_id}?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| file_id | path | Yes | string | Identificador del archivo que se va a usar para esta solicitud. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIFile |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Delete file
DELETE {endpoint}/openai/v1/files/{file_id}?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| file_id | path | Yes | string | Identificador del archivo que se va a usar para esta solicitud. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteFileResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Download file
GET {endpoint}/openai/v1/files/{file_id}/content?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| file_id | path | Yes | string | Identificador del archivo que se va a usar para esta solicitud. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Rungrader
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run?api-version=preview
Ejecute un calificador.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Objeto StringCheckGrader que realiza una comparación de cadenas entre la entrada y la referencia mediante una operación especificada. | Yes | |
| └─ calculate_output | string | Fórmula para calcular la salida en función de los resultados del calificador. | No | |
| └─ evaluation_metric | enum | Métrica de evaluación que se va a usar. Uno de fuzzy_match, bleu, , gleumeteorrouge_1rouge_2rouge_3, , rouge_4, , rouge_5o .rouge_lValores posibles: fuzzy_match, bleu, , gleu, meteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Etiqueta de imagen que se va a usar para el script de Python. | No | |
| └─ input | array | Texto de entrada. Esto puede incluir cadenas de plantilla. | No | |
| └─ model | string | Modelo que se va a usar para la evaluación. | No | |
| └─ name | string | Nombre del calificador. | No | |
| └─ operation | enum | Operación de comprobación de cadena que se va a realizar. Uno de eq, ne, likeo ilike.Valores posibles: eq, ne, like, ilike |
No | |
| └─ range | array | Intervalo de la puntuación. El valor predeterminado es [0, 1]. |
No | |
| └─ reference | string | Texto con el que se va a clasificar. | No | |
| └─ sampling_params | Parámetros de muestreo para el modelo. | No | ||
| └─ source | string | Código fuente del script de Python. | No | |
| └─ type | enum | Tipo de objeto, que siempre multies .Valores posibles: multi |
No | |
| item | Elemento de conjunto de datos proporcionado al calificador. Se usará para rellenar el item espacio de nombres. |
No | ||
| model_sample | string | Ejemplo de modelo que se va a evaluar. Este valor se usará para rellenar el sample espacio de nombres. La output_json variable se rellenará si el ejemplo de modelo es una cadena JSON válida. |
Yes |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.RunGraderResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Validate grader
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate?api-version=preview
Valide un calificador.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Objeto StringCheckGrader que realiza una comparación de cadenas entre la entrada y la referencia mediante una operación especificada. | Yes | |
| └─ calculate_output | string | Fórmula para calcular la salida en función de los resultados del calificador. | No | |
| └─ evaluation_metric | enum | Métrica de evaluación que se va a usar. Uno de fuzzy_match, bleu, , gleumeteorrouge_1rouge_2rouge_3, , rouge_4, , rouge_5o .rouge_lValores posibles: fuzzy_match, bleu, , gleu, meteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Etiqueta de imagen que se va a usar para el script de Python. | No | |
| └─ input | array | Texto de entrada. Esto puede incluir cadenas de plantilla. | No | |
| └─ model | string | Modelo que se va a usar para la evaluación. | No | |
| └─ name | string | Nombre del calificador. | No | |
| └─ operation | enum | Operación de comprobación de cadena que se va a realizar. Uno de eq, ne, likeo ilike.Valores posibles: eq, ne, like, ilike |
No | |
| └─ range | array | Intervalo de la puntuación. El valor predeterminado es [0, 1]. |
No | |
| └─ reference | string | Texto con el que se va a clasificar. | No | |
| └─ sampling_params | Parámetros de muestreo para el modelo. | No | ||
| └─ source | string | Código fuente del script de Python. | No | |
| └─ type | enum | Tipo de objeto, que siempre multies .Valores posibles: multi |
No |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ValidateGraderResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Creación de un trabajo de ajuste preciso
POST {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview
Crea un trabajo de ajuste preciso que comienza el proceso de creación de un nuevo modelo a partir de un conjunto de datos determinado.
La respuesta incluye detalles del trabajo en cola, incluido el estado del trabajo y el nombre de los modelos ajustados una vez completados.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hyperparameters | object | Hiperparámetros usados para el trabajo de ajuste preciso. Este valor ahora está en desuso en favor de methody debe pasarse bajo el method parámetro . |
No | |
| └─ batch_size | enum | Valores posibles: auto |
No | |
| └─ learning_rate_multiplier | enum | Valores posibles: auto |
No | |
| └─ n_epochs | enum | Valores posibles: auto |
No | |
| integrations | array | Lista de integraciones que se habilitarán para el trabajo de ajuste preciso. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| method | OpenAI.FineTuneMethod | Método que se usa para ajustar. | No | |
| model | string (consulte los modelos válidos a continuación) | Nombre del modelo que se va a ajustar. | Yes | |
| seed | integer | La inicialización controla la reproducibilidad del trabajo. Pasar los mismos parámetros de inicialización y trabajo debe generar los mismos resultados, pero puede diferir en raras ocasiones. Si no se especifica un valor de inicialización, se generará uno automáticamente. |
No | |
| suffix | string | Cadena de hasta 64 caracteres que se agregarán al nombre del modelo ajustado. Por ejemplo, un suffix de "custom-model-name" produciría un nombre de modelo como ft:gpt-4o-mini:openai:custom-model-name:7p4lURel. |
No | None |
| training_file | string | Identificador de un archivo cargado que contiene datos de entrenamiento. El conjunto de datos debe tener el formato JSONL. Además, debe cargar el archivo con el propósito fine-tune.El contenido del archivo debe diferir en función de si el modelo usa el formato de chat, finalizaciones o si el método de ajuste utiliza el formato de preferencia. |
Yes | |
| validation_file | string | Identificador de un archivo cargado que contiene datos de validación. Si proporciona este archivo, los datos se usan para generar métricas de validación periódicamente durante el ajuste preciso. Estas métricas se pueden ver en el archivo de resultados de ajuste preciso. Los mismos datos no deben estar presentes en los archivos de entrenamiento y validación. El conjunto de datos debe tener el formato JSONL. Debe cargar el archivo con el propósito fine-tune. |
No |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Enumeración de trabajos de ajuste paginado
GET {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview
Enumeración de los trabajos de ajuste preciso de la organización
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| after | query | No | string | Identificador del último trabajo de la solicitud de paginación anterior. |
| limit | query | No | integer | Número de trabajos de ajuste preciso que se van a recuperar. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListPaginatedFineTuningJobsResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Recuperación del trabajo de ajuste preciso
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}?api-version=preview
Obtenga información sobre un trabajo de ajuste preciso.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| fine_tuning_job_id | path | Yes | string | Identificador del trabajo de ajuste. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Cancelación del trabajo de ajuste preciso
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel?api-version=preview
Cancelar inmediatamente un trabajo de ajuste.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| fine_tuning_job_id | path | Yes | string | Identificador del trabajo de ajuste que se va a cancelar. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Enumeración de puntos de comprobación de trabajos de ajuste
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints?api-version=preview
Enumere los puntos de control de un trabajo de ajuste.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| fine_tuning_job_id | path | Yes | string | Identificador del trabajo de ajuste preciso para obtener puntos de control. |
| after | query | No | string | Identificador del último identificador de punto de control de la solicitud de paginación anterior. |
| limit | query | No | integer | Número de puntos de control que se van a recuperar. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListFineTuningJobCheckpointsResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Enumeración de eventos de ajuste preciso
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events?api-version=preview
Obtenga actualizaciones de estado para un trabajo de ajuste preciso.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| fine_tuning_job_id | path | Yes | string | Identificador del trabajo de ajuste preciso para el que se van a obtener eventos. |
| after | query | No | string | Identificador del último evento de la solicitud de paginación anterior. |
| limit | query | No | integer | Número de eventos que se van a recuperar. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListFineTuningJobEventsResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Pausar el trabajo de ajuste preciso
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause?api-version=preview
Pausar un trabajo de ajuste.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| fine_tuning_job_id | path | Yes | string | Identificador del trabajo de ajuste preciso que se va a pausar. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Reanudación del trabajo de ajuste
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume?api-version=preview
Reanude un trabajo de ajuste de pausa.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| fine_tuning_job_id | path | Yes | string | Identificador del trabajo de ajuste preciso que se va a reanudar. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Crear edición de imágenes
POST {endpoint}/openai/v1/images/edits?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | Permite establecer transparencia para el fondo de las imágenes generadas. Este parámetro solo se admite para gpt-image-1 los modelos. Debe ser , transparentopaque o auto (valor predeterminado). Cuando auto se usa, el modelo determinará automáticamente el mejor fondo para la imagen.Si transparentes , el formato de salida debe admitir la transparencia, por lo que debe establecerse png en (valor predeterminado) o webp.Valores posibles: transparent, opaque, auto |
No | |
| image | string o array | Yes | ||
| mask | string | No | ||
| model | string | Implementación del modelo que se va a usar para la operación de edición de imágenes. | Yes | |
| n | integer | Número de imágenes que se van a generar. Debe estar entre 1 y 10. | No | 1 |
| output_compression | integer | Nivel de compresión (0-100%) para las imágenes generadas. Este parámetro solo se admite para gpt-image-1los modelos de la serie -con formatos webp de salida o jpeg y el valor predeterminado es 100. |
No | 100 |
| output_format | enum | Formato en el que se devuelven las imágenes generadas. Este parámetro solo se admite para gpt-image-1los modelos de la serie -. Debe ser uno de png, jpego webp.El valor predeterminado es png.Valores posibles: png, jpeg, webp |
No | |
| prompt | string | Descripción de texto de las imágenes deseadas. La longitud máxima es de 1000 caracteres para dall-e-2, y 32000 caracteres para gpt-image-1los modelos de serie . |
Yes | |
| quality | enum | Calidad de la imagen que se generará.
high, medium y low solo se admiten para gpt-image-1los modelos de la serie .
dall-e-2 solo admite standard calidad. El valor predeterminado es auto.Valores posibles: standard, low, medium, , high, auto |
No | |
| response_format | enum | Formato en el que se devuelven las imágenes generadas. Debe ser uno de url o b64_json. Las direcciones URL solo son válidas durante 60 minutos después de que se haya generado la imagen. Este parámetro solo se admite para dall-e-2, ya gpt-image-1que los modelos de serie siempre devolverán imágenes codificadas en base64.Valores posibles: url, b64_json |
No | |
| size | enum | Tamaño de las imágenes generadas. Debe ser uno de 1024x1024, 1536x1024 (horizontal), 1024x1536 (vertical) o auto (valor predeterminado) para gpt-image-1los modelos de la serie y uno de 256x256, 512x512o 1024x1024 para dall-e-2.Valores posibles: 256x256, 512x512, 1024x1024, 1536x1024, , 1024x1536, auto |
No | |
| user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | No |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureImagesResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Createimage
POST {endpoint}/openai/v1/images/generations?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | Permite establecer transparencia para el fondo de las imágenes generadas. Este parámetro solo se admite para gpt-image-1 los modelos. Debe ser , transparentopaque o auto (valor predeterminado). Cuando auto se usa, el modelo determinará automáticamente el mejor fondo para la imagen.Si transparentes , el formato de salida debe admitir la transparencia, por lo que debe establecerse png en (valor predeterminado) o webp.Valores posibles: transparent, opaque, auto |
No | |
| model | string | Implementación del modelo que se va a usar para la generación de imágenes. | Yes | |
| moderation | enum | Controle el nivel de moderación de contenido para las imágenes generadas por gpt-image-1modelos de serie. Debe ser low para un filtrado menos restrictivo o auto (valor predeterminado).Valores posibles: low, auto |
No | |
| n | integer | Número de imágenes que se van a generar. Debe estar entre 1 y 10. Para dall-e-3, solo n=1 se admite. |
No | 1 |
| output_compression | integer | Nivel de compresión (0-100%) para las imágenes generadas. Este parámetro solo se admite para gpt-image-1los modelos de la serie -con formatos webp de salida o jpeg y el valor predeterminado es 100. |
No | 100 |
| output_format | enum | Formato en el que se devuelven las imágenes generadas. Este parámetro solo se admite para gpt-image-1los modelos de la serie -. Debe ser uno de png, jpego webp.Valores posibles: png, jpeg, webp |
No | |
| prompt | string | Descripción de texto de las imágenes deseadas. La longitud máxima es de 32000 caracteres para gpt-image-1los modelos de series , 1000 caracteres para dall-e-2 y 4000 caracteres para dall-e-3. |
Yes | |
| quality | enum | Calidad de la imagen que se generará. - auto (valor predeterminado) seleccionará automáticamente la mejor calidad para el modelo especificado.- high, medium y low son compatibles con gpt-image-1los modelos de la serie .- hd y standard son compatibles con dall-e-3.- standard es la única opción para dall-e-2.Valores posibles: standard, hd, low, medium, , high, auto |
No | |
| response_format | enum | Formato en el que se devuelven las imágenes generadas con dall-e-2 y dall-e-3 . Debe ser uno de url o b64_json. Las direcciones URL solo son válidas durante 60 minutos después de que se haya generado la imagen. Este parámetro no se admite para gpt-image-1los modelos de la serie -que siempre devolverán imágenes codificadas en base64.Valores posibles: url, b64_json |
No | |
| size | enum | Tamaño de las imágenes generadas. Debe ser uno de 1024x1024, 1536x1024 (horizontal), 1024x1536 (vertical) o auto (valor predeterminado) para gpt-image-1los modelos de serie , uno de 256x256, 512x512o 1024x1024 para dall-e-2, y uno de 1024x1024, 1792x1024o 1024x1792 para dall-e-3.Valores posibles: auto, 1024x1024, 1536x1024, 1024x1536, 256x256, 512x512, , , 1792x10241024x1792 |
No | |
| style | enum | Estilo de las imágenes generadas. Este parámetro solo se admite para dall-e-3. Debe ser uno de vivid o natural. Vívido hace que el modelo se inclina hacia la generación de imágenes hiper-reales y dramáticas. Natural hace que el modelo produzca imágenes más naturales y menos hiper-reales.Valores posibles: vivid, natural |
No | |
| user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | No |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureImagesResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Crea imágenes dadas una solicitud.
POST {endpoint}/openai/v1/images/generations?api-version=preview
{
"model": "dall-e-3",
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respuestas: Código de estado: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
List models
GET {endpoint}/openai/v1/models?api-version=preview
Enumera los modelos disponibles actualmente y proporciona información básica sobre cada uno de ellos, como el propietario y la disponibilidad.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListModelsResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Retrieve model
GET {endpoint}/openai/v1/models/{model}?api-version=preview
Recupera una instancia de modelo, proporcionando información básica sobre el modelo, como el propietario y el permiso.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| model | path | Yes | string | Identificador del modelo que se va a usar para esta solicitud. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Model |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Create response
POST {endpoint}/openai/v1/responses?api-version=preview
Crea una respuesta de modelo.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | boolean | Si se va a ejecutar la respuesta del modelo en segundo plano. | No | False |
| include | array | Especifique datos de salida adicionales que se incluirán en la respuesta del modelo. Los valores admitidos actualmente son: - code_interpreter_call.outputs: incluye las salidas de la ejecución de código de Python en los elementos de llamada de la herramienta de intérprete de código.- computer_call_output.output.image_url: incluya direcciones URL de imagen desde la salida de la llamada del equipo.- file_search_call.results: incluya los resultados de búsqueda de la llamada a la herramienta de búsqueda de archivos.- message.input_image.image_url: incluya direcciones URL de imagen del mensaje de entrada.- message.output_text.logprobs: incluya logprobs con mensajes de asistente.- reasoning.encrypted_content: incluye una versión cifrada de tokens de razonamiento en las salidas del elemento de razonamiento. Esto permite usar elementos de razonamiento en conversaciones multiturno cuando se usa la API de respuestas sin estado (como cuando el store parámetro se establece falseen o cuando una organización está inscrita en el programa de retención de datos cero). |
No | |
| input | string o array | No | ||
| instructions | string | Mensaje del sistema (o desarrollador) insertado en el contexto del modelo. Al usar junto con previous_response_id, las instrucciones de una respuesta anterior no se transferirán a la siguiente respuesta. Esto facilita el intercambio de mensajes del sistema (o desarrollador) en nuevas respuestas. |
No | |
| max_output_tokens | integer | Límite superior para el número de tokens que se pueden generar para una respuesta, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| max_tool_calls | integer | Número máximo de llamadas totales a herramientas integradas que se pueden procesar en una respuesta. Este número máximo se aplica en todas las llamadas a herramientas integradas, no por herramienta individual. Se omitirán todos los intentos adicionales de llamar a una herramienta por el modelo. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| model | string | Implementación del modelo que se va a usar para la creación de esta respuesta. | Yes | |
| parallel_tool_calls | boolean | Si se permite que el modelo ejecute llamadas de herramienta en paralelo. | No | True |
| previous_response_id | string | Identificador único de la respuesta anterior al modelo. Úselo para crear conversaciones multiturno. | No | |
| prompt | object | Referencia a una plantilla de solicitud y sus variables. | No | |
| └─ id | string | Identificador único de la plantilla de solicitud que se va a usar. | No | |
| └─ variables | OpenAI.ResponsePromptVariables | Asignación opcional de valores para sustituir por variables en el símbolo del sistema. Los valores de sustitución pueden ser cadenas u otros tipos de entrada de respuesta, como imágenes o archivos. | No | |
| └─ version | string | Versión opcional de la plantilla de solicitud. | No | |
| reasoning | object |
Solo modelos de la serie o Opciones de configuración para modelos de razonamiento. |
No | |
| └─ effort | OpenAI.ReasoningEffort |
Solo modelos de la serie o Restringe el esfuerzo en el razonamiento de los modelos de razonamiento. Actualmente, los valores admitidos son low, mediumy high. Reducir el esfuerzo de razonamiento puede dar lugar a respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta. |
No | |
| └─ generate_summary | enum |
En desuso: use summary en su lugar.Resumen del razonamiento realizado por el modelo. Esto puede ser útil para depurar y comprender el proceso de razonamiento del modelo. Uno de auto, conciseo detailed.Valores posibles: auto, concise, detailed |
No | |
| └─ summary | enum | Resumen del razonamiento realizado por el modelo. Esto puede ser útil para depurar y comprender el proceso de razonamiento del modelo. Uno de auto, conciseo detailed.Valores posibles: auto, concise, detailed |
No | |
| store | boolean | Si se va a almacenar la respuesta del modelo generada para su recuperación posterior a través de la API. | No | True |
| stream | boolean | Si se establece en true, los datos de respuesta del modelo se transmitirán al cliente a medida que se generan mediante eventos enviados por el servidor. | No | False |
| temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | 1 |
| text | object | Opciones de configuración para una respuesta de texto del modelo. Puede ser texto sin formato o datos JSON estructurados. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | object | Controla la herramienta a la que llama el modelo (si existe).none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje.auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas.required significa que el modelo debe llamar a una o varias herramientas. |
No | |
| └─ type | OpenAI.ToolChoiceObjectType | Indica que el modelo debe usar una herramienta integrada para generar una respuesta. | No | |
| tools | array | Una matriz de herramientas que el modelo puede llamar al generar una respuesta. You puede especificar qué herramienta se va a usar estableciendo el tool_choice parámetro .Las dos categorías de herramientas que puede proporcionar son: - Herramientas integradas: herramientas proporcionadas por OpenAI que amplían las funcionalidades del modelo, como la búsqueda de archivos. - Llamadas a funciones (herramientas personalizadas): funciones definidas por usted, lo que permite que el modelo llame a su propio código. |
No | |
| top_logprobs | integer | Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada. | No | |
| top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | 1 |
| truncation | enum | Estrategia de truncamiento que se va a usar para la respuesta del modelo. - auto: si el contexto de esta respuesta y los anteriores supera el tamaño de la ventana de contexto del modelo, el modelo truncará la respuesta para ajustarse a la ventana de contexto quitando los elementos de entrada en medio de la conversación.- disabled (valor predeterminado): si una respuesta del modelo superará el tamaño de la ventana de contexto de un modelo, se producirá un error 400 en la solicitud.Valores posibles: auto, disabled |
No | |
| user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | No |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureResponse | |
| text/event-stream | OpenAI.ResponseStreamEvent |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Creación de una respuesta de modelo
POST {endpoint}/openai/v1/responses?api-version=preview
Get response
GET {endpoint}/openai/v1/responses/{response_id}?api-version=preview
Recupera una respuesta de modelo con el identificador especificado.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| response_id | path | Yes | string | |
| include[] | query | No | array |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Delete response
DELETE {endpoint}/openai/v1/responses/{response_id}?api-version=preview
Elimina una respuesta por identificador.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| response_id | path | Yes | string |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Enumerar elementos de entrada
GET {endpoint}/openai/v1/responses/{response_id}/input_items?api-version=preview
Devuelve una lista de elementos de entrada para una respuesta determinada.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| response_id | path | Yes | string | |
| limit | query | No | integer | Límite en el número de objetos que se van a devolver. El límite puede oscilar entre 1 y 100 y el valor predeterminado es 20. |
| order | query | No | string Valores posibles: asc, desc |
Criterio de ordenación por la created_at marca de tiempo de los objetos.
asc para orden ascendente ydesc para orden descendente. |
| after | query | No | string | Cursor para su uso en la paginación.
after es un identificador de objeto que define su lugar en la lista.Por ejemplo, si realiza una solicitud de lista y recibe 100 objetos, finalizando con obj_foo, la llamada posterior puede incluir after=obj_foo para capturar la página siguiente de la lista. |
| before | query | No | string | Cursor para su uso en la paginación.
before es un identificador de objeto que define su lugar en la lista.Por ejemplo, si realiza una solicitud de lista y recibe 100 objetos, finalizando con obj_foo, la llamada posterior puede incluir before=obj_foo para capturar la página anterior de la lista. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ResponseItemList |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Enumerar almacenes de vectores
GET {endpoint}/openai/v1/vector_stores?api-version=preview
Devuelve una lista de almacenes vectoriales.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| limit | query | No | integer | Límite en el número de objetos que se van a devolver. El límite puede oscilar entre 1 y 100 y el valor predeterminado es 20. |
| order | query | No | string Valores posibles: asc, desc |
Criterio de ordenación por la created_at marca de tiempo de los objetos.
asc para orden ascendente ydesc para orden descendente. |
| after | query | No | string | Cursor para su uso en la paginación.
after es un identificador de objeto que define su lugar en la lista.Por ejemplo, si realiza una solicitud de lista y recibe 100 objetos, finalizando con obj_foo, la llamada posterior puede incluir after=obj_foo para capturar la página siguiente de la lista. |
| before | query | No | string | Cursor para su uso en la paginación.
before es un identificador de objeto que define su lugar en la lista.Por ejemplo, si realiza una solicitud de lista y recibe 100 objetos, finalizando con obj_foo, la llamada posterior puede incluir before=obj_foo para capturar la página anterior de la lista. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoresResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Creación de un almacén de vectores
POST {endpoint}/openai/v1/vector_stores?api-version=preview
Crea un almacén de vectores.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | object | Estrategia predeterminada. Actualmente, esta estrategia usa un max_chunk_size_tokens de 800 y chunk_overlap_tokens de 400. |
No | |
| └─ static | OpenAI.StaticChunkingStrategy | No | ||
| └─ type | enum | Siempre static.Valores posibles: static |
No | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Directiva de expiración de un almacén de vectores. | No | |
| file_ids | array | Lista de identificadores de archivo que debe usar el almacén de vectores. Útil para herramientas como file_search que pueden tener acceso a archivos. |
No | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| name | string | Nombre del almacén de vectores. | No |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Archivo de ejemplo no encontrado: ./examples/vector_stores.json
Obtención del almacén de vectores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview
Recupera un almacén de vectores.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| vector_store_id | path | Yes | string | Identificador del almacén de vectores que se va a recuperar. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Modificación del almacén de vectores
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview
Modifica un almacén de vectores.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| vector_store_id | path | Yes | string | Identificador del almacén de vectores que se va a modificar. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | object | Directiva de expiración de un almacén de vectores. | No | |
| └─ anchor | enum | Marca de tiempo de anclaje después de la cual se aplica la directiva de expiración. Anclajes admitidos: last_active_at.Valores posibles: last_active_at |
No | |
| └─ days | integer | Número de días después del tiempo de delimitador que expirará el almacén de vectores. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| name | string | Nombre del almacén de vectores. | No |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Eliminar almacén de vectores
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview
Eliminar un almacén de vectores.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| vector_store_id | path | Yes | string | Identificador del almacén de vectores que se va a eliminar. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteVectorStoreResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Creación de un lote de archivos de almacén vectorial
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches?api-version=preview
Cree un lote de archivos de almacén vectorial.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| vector_store_id | path | Yes | string | Identificador del almacén de vectores para el que se va a crear un lote de archivos. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres, booleanos o números. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Estrategia de fragmentación usada para fragmentar los archivos. Si no se establece, usará la auto estrategia. |
No | |
| file_ids | array | Lista de identificadores de archivo que debe usar el almacén de vectores. Útil para herramientas como file_search que pueden tener acceso a archivos. |
Yes |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obtención del lote de archivos del almacén de vectores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=preview
Recupera un lote de archivos de almacén de vectores.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| vector_store_id | path | Yes | string | Identificador del almacén de vectores al que pertenece el lote de archivo. |
| batch_id | path | Yes | string | Identificador del lote de archivo que se va a recuperar. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Cancelar el lote de archivos del almacén de vectores
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=preview
Cancelar un lote de archivos de almacén de vectores. Esto intenta cancelar el procesamiento de archivos en este lote lo antes posible.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| vector_store_id | path | Yes | string | Identificador del almacén de vectores al que pertenece el lote de archivo. |
| batch_id | path | Yes | string | Identificador del lote de archivo que se va a cancelar. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Enumeración de archivos en el lote del almacén de vectores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=preview
Devuelve una lista de archivos de almacén de vectores en un lote.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| vector_store_id | path | Yes | string | Identificador del almacén de vectores al que pertenece el lote de archivo. |
| batch_id | path | Yes | string | Identificador del lote de archivo al que pertenecen los archivos. |
| limit | query | No | integer | Límite en el número de objetos que se van a devolver. El límite puede oscilar entre 1 y 100 y el valor predeterminado es 20. |
| order | query | No | string Valores posibles: asc, desc |
Criterio de ordenación por la created_at marca de tiempo de los objetos.
asc para orden ascendente ydesc para orden descendente. |
| after | query | No | string | Cursor para su uso en la paginación.
after es un identificador de objeto que define su lugar en la lista.Por ejemplo, si realiza una solicitud de lista y recibe 100 objetos, finalizando con obj_foo, la llamada posterior puede incluir after=obj_foo para capturar la página siguiente de la lista. |
| before | query | No | string | Cursor para su uso en la paginación.
before es un identificador de objeto que define su lugar en la lista.Por ejemplo, si realiza una solicitud de lista y recibe 100 objetos, finalizando con obj_foo, la llamada posterior puede incluir before=obj_foo para capturar la página anterior de la lista. |
| filter | query | No | Filtre por estado de archivo. Uno de in_progress, completed, failed, cancelled. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoreFilesResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Enumerar archivos de almacén de vectores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview
Devuelve una lista de archivos de almacén de vectores.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| vector_store_id | path | Yes | string | Identificador del almacén de vectores al que pertenecen los archivos. |
| limit | query | No | integer | Límite en el número de objetos que se van a devolver. El límite puede oscilar entre 1 y 100 y el valor predeterminado es 20. |
| order | query | No | string Valores posibles: asc, desc |
Criterio de ordenación por la created_at marca de tiempo de los objetos.
asc para orden ascendente ydesc para orden descendente. |
| after | query | No | string | Cursor para su uso en la paginación.
after es un identificador de objeto que define su lugar en la lista.Por ejemplo, si realiza una solicitud de lista y recibe 100 objetos, finalizando con obj_foo, la llamada posterior puede incluir after=obj_foo para capturar la página siguiente de la lista. |
| before | query | No | string | Cursor para su uso en la paginación.
before es un identificador de objeto que define su lugar en la lista.Por ejemplo, si realiza una solicitud de lista y recibe 100 objetos, finalizando con obj_foo, la llamada posterior puede incluir before=obj_foo para capturar la página anterior de la lista. |
| filter | query | No | Filtre por estado de archivo. Uno de in_progress, completed, failed, cancelled. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoreFilesResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Creación de un archivo de almacén de vectores
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview
Cree un archivo de almacén de vectores adjuntando un archivo a un almacén de vectores.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| vector_store_id | path | Yes | string | Identificador del almacén de vectores para el que se va a crear un archivo. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres, booleanos o números. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Estrategia de fragmentación usada para fragmentar los archivos. Si no se establece, usará la auto estrategia. |
No | |
| file_id | string | Identificador de archivo que debe usar el almacén de vectores. Útil para herramientas como file_search que pueden tener acceso a archivos. |
Yes |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obtención del archivo de almacén de vectores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview
Recupera un archivo de almacén de vectores.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| vector_store_id | path | Yes | string | Identificador del almacén de vectores al que pertenece el archivo. |
| file_id | path | Yes | string | Identificador del archivo que se va a recuperar. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Actualizar atributos de archivo de almacén de vectores
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| vector_store_id | path | Yes | string | |
| file_id | path | Yes | string |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres, booleanos o números. | Yes |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Eliminar archivo de almacén de vectores
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview
Elimine un archivo de almacén de vectores. Esto quitará el archivo del almacén de vectores, pero el propio archivo no se eliminará. Para eliminar el archivo, use el punto de conexión eliminar archivo.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| vector_store_id | path | Yes | string | Identificador del almacén de vectores al que pertenece el archivo. |
| file_id | path | Yes | string | Identificador del archivo que se va a eliminar. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteVectorStoreFileResponse |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Trabajos de generación de vídeo: crear
POST {endpoint}/openai/v1/video/generations/jobs?api-version=preview
Crea un nuevo trabajo de generación de vídeos.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| height | integer | Alto del vídeo. Se admiten las siguientes dimensiones: 480x480, 854x480, 720x720, 1280x720, 1080x1080 y 1920x1080 en orientación horizontal y vertical. | Yes | |
| model | string | Nombre de la implementación que se va a usar para esta solicitud. | Yes | |
| n_seconds | integer | Duración del trabajo de generación de vídeo. Debe estar entre 1 y 20 segundos. | No | 5 |
| n_variants | integer | Número de vídeos que se van a crear como variantes para este trabajo. Debe estar entre 1 y 5. Las dimensiones más pequeñas permiten más variantes. | No | 1 |
| prompt | string | Solicitud de este trabajo de generación de vídeo. | Yes | |
| width | integer | Ancho del vídeo. Se admiten las siguientes dimensiones: 480x480, 854x480, 720x720, 1280x720, 1080x1080 y 1920x1080 en orientación horizontal y vertical. | Yes |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| height | integer | Alto del vídeo. Se admiten las siguientes dimensiones: 480x480, 854x480, 720x720, 1280x720, 1080x1080 y 1920x1080 en orientación horizontal y vertical. | Yes | |
| inpaint_items | array | Elementos opcionales de inpainting para este trabajo de generación de vídeo. | No | |
| model | string | Nombre de la implementación que se va a usar para esta solicitud. | Yes | |
| n_seconds | integer | Duración del trabajo de generación de vídeo. Debe estar entre 1 y 20 segundos. | No | 5 |
| n_variants | integer | Número de vídeos que se van a crear como variantes para este trabajo. Debe estar entre 1 y 5. Las dimensiones más pequeñas permiten más variantes. | No | 1 |
| prompt | string | Solicitud de este trabajo de generación de vídeo. | Yes | |
| width | integer | Ancho del vídeo. Se admiten las siguientes dimensiones: 480x480, 854x480, 720x720, 1280x720, 1080x1080 y 1920x1080 en orientación horizontal y vertical. | Yes |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGenerationJob |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Archivo de ejemplo no encontrado: ./examples/create_video_generation_job_simple.json
Trabajos de generación de vídeo: lista
GET {endpoint}/openai/v1/video/generations/jobs?api-version=preview
Enumera los trabajos de generación de vídeo.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| before | query | No | string | |
| after | query | No | string | |
| limit | query | Yes | integer | |
| statuses | query | No | array |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGenerationJobList |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Archivo de ejemplo no encontrado: ./examples/get_video_generation_job_list.json
Trabajos de generación de vídeo: Obtener
GET {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview
Recupera las propiedades de un trabajo de generación de vídeo.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| job-id | path | Yes | string | Identificador del trabajo de generación de vídeo que se va a usar para la solicitud openAI de Azure. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGenerationJob |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Archivo de ejemplo no encontrado: ./examples/get_video_generation_job.json
Trabajos de generación de vídeo: eliminar
DELETE {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview
Elimina un trabajo de generación de vídeo.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| job-id | path | Yes | string | Identificador del trabajo de generación de vídeo que se va a usar para la solicitud openAI de Azure. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 204
Descripción: no hay contenido que enviar para esta solicitud, pero los encabezados pueden ser útiles.
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Generaciones de vídeo: Obtener
GET {endpoint}/openai/v1/video/generations/{generation-id}?api-version=preview
Recupera una generación de vídeo por identificador.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| generation-id | path | Yes | string | Identificador de la generación de vídeo que se va a usar para la solicitud de OpenAI de Azure. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGeneration |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Archivo de ejemplo no encontrado: ./examples/get_video_generation.json
Generaciones de vídeo: recuperación de miniaturas
GET {endpoint}/openai/v1/video/generations/{generation-id}/content/thumbnail?api-version=preview
Recupera una miniatura del contenido de vídeo generado.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| generation-id | path | Yes | string | Identificador de la generación de vídeo que se va a usar para la solicitud de OpenAI de Azure. |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| image/jpg | string |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Generaciones de vídeo: recuperación del contenido de vídeo
GET {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview
Recupera el contenido de vídeo generado.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| generation-id | path | Yes | string | Identificador de la generación de vídeo que se va a usar para la solicitud de OpenAI de Azure. |
| quality | query | No |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
| Content-Type | Type | Description |
|---|---|---|
| video/mp4 | string |
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Generaciones de vídeo: solo recuperar encabezados de vídeocontent
HEAD {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview
Recupera encabezados para el contenido de vídeo generado.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | La versión explícita de foundry Models API que se va a usar para esta solicitud.v1 si no se especifica lo contrario. |
|
| generation-id | path | Yes | string | Identificador de la generación de vídeo que se va a usar para la solicitud de OpenAI de Azure. |
| quality | query | No |
Request Header
Use la autenticación basada en tokens o la clave de API. La autenticación con autenticación basada en tokens se recomienda y es más segura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación mediante CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeámbito: https://ai.azure.com/.default |
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Responses
Código de estado: 200
Descripción: la solicitud se ha realizado correctamente.
Código de estado: valor predeterminado
Descripción: una respuesta de error inesperada.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Components
AudioTaskLabel
Define los posibles descriptores para las respuestas de operación de audio disponibles.
| Property | Value |
|---|---|
| Description | Define los posibles descriptores para las respuestas de operación de audio disponibles. |
| Type | string |
| Values | transcribetranslate |
AudioTranslationSegment
Información extendida sobre un único segmento de datos de audio traducidos. Los segmentos suelen representar aproximadamente entre 5 y 10 segundos de voz. Normalmente, los límites de segmento se producen entre palabras, pero no necesariamente oraciones.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Probabilidad media del registro asociada a este segmento de audio. | Yes | |
| compression_ratio | number | Relación de compresión de este segmento de audio. | Yes | |
| end | number | Hora en la que este segmento finalizó con respecto al principio del audio traducido. | Yes | |
| id | integer | Índice basado en 0 de este segmento dentro de una traducción. | Yes | |
| no_speech_prob | number | Probabilidad de que no haya detección de voz en este segmento de audio. | Yes | |
| seek | integer | Posición de búsqueda asociada al procesamiento de este segmento de audio. Las posiciones de búsqueda se expresan como centésimas de segundos. El modelo puede procesar varios segmentos desde una sola posición de búsqueda, por lo que, aunque la posición de búsqueda nunca representará un tiempo posterior al inicio del segmento, el inicio del segmento puede representar un tiempo significativamente posterior a la posición de búsqueda asociada del segmento. |
Yes | |
| start | number | Hora en la que se inició este segmento en relación con el principio del audio traducido. | Yes | |
| temperature | number | Puntuación de temperatura asociada a este segmento de audio. | Yes | |
| text | string | Texto traducido que formaba parte de este segmento de audio. | Yes | |
| tokens | array | Identificadores de token que coinciden con el texto traducido en este segmento de audio. | Yes |
AzureAIFoundryModelsApiVersion
| Property | Value |
|---|---|
| Type | string |
| Values | v1preview |
AzureAudioTranscriptionResponse
Información de resultados de una operación que transcribió el audio hablado en texto escrito.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duración total del audio procesado para generar información de transcripción complementaria. | No | |
| language | string | Idioma hablado que se detectó en los datos de audio transcritos. Esto se expresa como un código de lenguaje ISO-639-1 de dos letras, como "en" o "fr". |
No | |
| segments | array | Colección de información sobre el tiempo, las probabilidades y otros detalles de cada segmento de audio procesado. | No | |
| task | object | Define los posibles descriptores para las respuestas de operación de audio disponibles. | No | |
| text | string | Texto transcrito para los datos de audio proporcionados. | Yes | |
| words | array | Colección de información sobre el tiempo de cada palabra procesada. | No |
AzureAudioTranslationResponse
Información de resultados de una operación que traducía el audio hablado en texto escrito.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duración total del audio procesado para generar información de traducción complementaria. | No | |
| language | string | Idioma hablado que se detectó en los datos de audio traducidos. Esto se expresa como un código de lenguaje ISO-639-1 de dos letras, como "en" o "fr". |
No | |
| segments | array | Colección de información sobre el tiempo, las probabilidades y otros detalles de cada segmento de audio procesado. | No | |
| task | object | Define los posibles descriptores para las respuestas de operación de audio disponibles. | No | |
| text | string | Texto traducido para los datos de audio proporcionados. | Yes |
AzureChatCompletionResponseMessage
Componente del modelo de respuesta extendida para mensajes de respuesta de finalización de chat en el servicio Azure OpenAI. Este modelo agrega compatibilidad con el contexto del mensaje de chat, que usa la característica On Your Data para la intención, las citas y otra información relacionada con la generación aumentada de recuperación realizada.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Anotaciones para el mensaje, cuando proceda, como cuando se usa la herramienta de búsqueda web. | No | |
| audio | object | Si se solicita la modalidad de salida de audio, este objeto contiene datos sobre la respuesta de audio del modelo. | No | |
| └─ data | string | Bytes de audio codificados en Base64 generados por el modelo, en el formato especificado en la solicitud. | No | |
| └─ expires_at | integer | La marca de tiempo de Unix (en segundos) para cuando esta respuesta de audio ya no será accesible en el servidor para su uso en conversaciones multiturno. | No | |
| └─ id | string | Identificador único de esta respuesta de audio. | No | |
| └─ transcript | string | Transcripción del audio generado por el modelo. | No | |
| content | string | Contenido del mensaje. | Yes | |
| context | object | Una propiedad adicional, agregada a los mensajes de respuesta de finalización del chat, generados por el servicio openAI Azure cuando se usa el comportamiento de la extensión. Esto incluye la intención y la información de cita de la característica En los datos. | No | |
| └─ all_retrieved_documents | object | Información de resumen sobre los documentos recuperados por la operación de recuperación de datos. | No | |
| └─ chunk_id | string | Identificador del fragmento de la cita. | No | |
| └─ content | string | Contenido de la cita. | No | |
| └─ data_source_index | integer | Índice del origen de datos usado para la recuperación. | No | |
| └─ filepath | string | Ruta de acceso del archivo para la cita. | No | |
| └─ filter_reason | enum | Si procede, indica por qué se filtre el documento. Valores posibles: score, rerank |
No | |
| └─ original_search_score | number | Puntuación de búsqueda original para la recuperación. | No | |
| └─ rerank_score | number | Puntuación de rerank para la recuperación. | No | |
| └─ search_queries | array | Las consultas de búsqueda ejecutadas para recuperar documentos. | No | |
| └─ title | string | Título de la cita. | No | |
| └─ url | string | Dirección URL de la cita. | No | |
| └─ citations | array | Las citas producidas por la recuperación de datos. | No | |
| └─ intent | string | La intención detectada del historial de chat, que se usa para llevar el contexto de conversación entre interacciones | No | |
| function_call | object | En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo. |
No | |
| └─ arguments | string | No | ||
| └─ name | string | No | ||
| reasoning_content | string | Propiedad de extensión Azure específica que contiene contenido de razonamiento generado a partir de modelos admitidos. | No | |
| refusal | string | Mensaje de denegación generado por el modelo. | Yes | |
| role | enum | Rol del autor de este mensaje. Valores posibles: assistant |
Yes | |
| tool_calls | ChatCompletionMessageToolCallsItem | La herramienta llama a las llamadas generadas por el modelo, como las llamadas de función. | No |
AzureChatCompletionStreamResponseDelta
El modelo de respuesta extendida para un mensaje de respuesta de chat en streaming en el Azure servicio OpenAI. Este modelo agrega compatibilidad con el contexto del mensaje de chat, que usa la característica On Your Data para la intención, las citas y otra información relacionada con la generación aumentada de recuperación realizada.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | No | ||
| └─ data | string | No | ||
| └─ expires_at | integer | No | ||
| └─ id | string | No | ||
| └─ transcript | string | No | ||
| content | string | Contenido del mensaje de fragmento. | No | |
| context | object | Una propiedad adicional, agregada a los mensajes de respuesta de finalización del chat, generados por el servicio openAI Azure cuando se usa el comportamiento de la extensión. Esto incluye la intención y la información de cita de la característica En los datos. | No | |
| └─ all_retrieved_documents | object | Información de resumen sobre los documentos recuperados por la operación de recuperación de datos. | No | |
| └─ chunk_id | string | Identificador del fragmento de la cita. | No | |
| └─ content | string | Contenido de la cita. | No | |
| └─ data_source_index | integer | Índice del origen de datos usado para la recuperación. | No | |
| └─ filepath | string | Ruta de acceso del archivo para la cita. | No | |
| └─ filter_reason | enum | Si procede, indica por qué se filtre el documento. Valores posibles: score, rerank |
No | |
| └─ original_search_score | number | Puntuación de búsqueda original para la recuperación. | No | |
| └─ rerank_score | number | Puntuación de rerank para la recuperación. | No | |
| └─ search_queries | array | Las consultas de búsqueda ejecutadas para recuperar documentos. | No | |
| └─ title | string | Título de la cita. | No | |
| └─ url | string | Dirección URL de la cita. | No | |
| └─ citations | array | Las citas producidas por la recuperación de datos. | No | |
| └─ intent | string | La intención detectada del historial de chat, que se usa para llevar el contexto de conversación entre interacciones | No | |
| function_call | object | En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo. |
No | |
| └─ arguments | string | No | ||
| └─ name | string | No | ||
| reasoning_content | string | Propiedad de extensión Azure específica que contiene contenido de razonamiento generado a partir de modelos admitidos. | No | |
| refusal | string | Mensaje de denegación generado por el modelo. | No | |
| role | object | Rol del autor de un mensaje | No | |
| tool_calls | array | No |
AzureChatDataSource
Representación de los datos de configuración para un único origen de datos de chat de OpenAI Azure. Esto lo usará una solicitud de finalizaciones de chat que debe usar Azure extensiones de chat de OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.
Discriminador para AzureChatDataSource
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
azure_search |
AzureSearchChatDataSource |
azure_cosmos_db |
AzureCosmosDBChatDataSource |
elasticsearch |
ElasticsearchChatDataSource |
pinecone |
PineconeChatDataSource |
mongo_db |
MongoDBChatDataSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | object | Yes |
AzureChatDataSourceAccessTokenAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| access_token | string | Yes | ||
| type | enum | Valores posibles: access_token |
Yes |
AzureChatDataSourceApiKeyAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Yes | ||
| type | enum | Valores posibles: api_key |
Yes |
AzureChatDataSourceAuthenticationOptions
Discriminador para AzureChatDataSourceAuthenticationOptions
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
system_assigned_managed_identity |
AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions |
access_token |
AzureChatDataSourceAccessTokenAuthenticationOptions |
connection_string |
AzureChatDataSourceConnectionStringAuthenticationOptions |
key_and_key_id |
AzureChatDataSourceKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
AzureChatDataSourceEncodedApiKeyAuthenticationOptions |
username_and_password |
AzureChatDataSourceUsernameAndPasswordAuthenticationOptions |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | AzureChatDataSourceAuthenticationOptionsType | Yes |
AzureChatDataSourceAuthenticationOptionsType
| Property | Value |
|---|---|
| Type | string |
| Values | api_keyusername_and_passwordconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identity |
AzureChatDataSourceConnectionStringAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| connection_string | string | Yes | ||
| type | enum | Valores posibles: connection_string |
Yes |
AzureChatDataSourceDeploymentNameVectorizationSource
Representa un origen de vectorización que realiza llamadas de servicio internas en una implementación de modelo de inserción de OpenAI Azure. A diferencia del origen de vectorización basado en puntos de conexión, un origen de vectorización basado en nombre de implementación debe formar parte del mismo recurso de Azure OpenAI, pero se puede usar incluso en redes privadas.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | string | Implementación del modelo de inserción que se va a usar para la vectorización. Esta implementación debe existir dentro del mismo Azure recurso de OpenAI que la implementación del modelo que se usa para las finalizaciones de chat. | Yes | |
| dimensions | integer | Número de dimensiones que se van a solicitar en las incrustaciones. Solo se admite en los modelos "text-embeding-3" y versiones posteriores. |
No | |
| type | enum | Identificador de tipo, siempre "deployment_name" para este tipo de origen de vectorización. Valores posibles: deployment_name |
Yes |
AzureChatDataSourceEncodedApiKeyAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | string | Yes | ||
| type | enum | Valores posibles: encoded_api_key |
Yes |
AzureChatDataSourceEndpointVectorizationSource
Representa un origen de vectorización que realiza llamadas de servicio público en una implementación de modelo de inserción de OpenAI Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | object | Yes | ||
| └─ access_token | string | No | ||
| └─ key | string | No | ||
| └─ type | enum | Valores posibles: access_token |
No | |
| dimensions | integer | Número de dimensiones que se van a solicitar en las incrustaciones. Solo se admite en los modelos "text-embeding-3" y versiones posteriores. |
No | |
| endpoint | string | Especifica la dirección URL del punto de conexión de recurso desde la que se deben recuperar las incrustaciones. Debe estar en el formato de: https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. No se permite el parámetro de consulta api-version. |
Yes | |
| type | enum | Identificador de tipo, siempre "punto de conexión" para este tipo de origen de vectorización. Valores posibles: endpoint |
Yes |
AzureChatDataSourceIntegratedVectorizationSource
Representa un origen de vectorización integrado tal como se define en el recurso de búsqueda auxiliar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Identificador de tipo, siempre "integrado" para este tipo de origen de vectorización. Valores posibles: integrated |
Yes |
AzureChatDataSourceKeyAndKeyIdAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Yes | ||
| key_id | string | Yes | ||
| type | enum | Valores posibles: key_and_key_id |
Yes |
AzureChatDataSourceModelIdVectorizationSource
Representa un origen de vectorización que realiza llamadas de servicio basadas en un identificador de modelo de servicio de búsqueda. Actualmente, elasticsearch solo admite este tipo de origen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model_id | string | Identificador de compilación del modelo de inserción que se va a usar para la vectorización. | Yes | |
| type | enum | Identificador de tipo, siempre "model_id" para este tipo de origen de vectorización. Valores posibles: model_id |
Yes |
AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valores posibles: system_assigned_managed_identity |
Yes |
AzureChatDataSourceType
| Property | Value |
|---|---|
| Type | string |
| Values | azure_searchazure_cosmos_dbelasticsearchpineconemongo_db |
AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | string | Yes | ||
| type | enum | Valores posibles: user_assigned_managed_identity |
Yes |
AzureChatDataSourceUsernameAndPasswordAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| password | string | Yes | ||
| type | enum | Valores posibles: username_and_password |
Yes | |
| username | string | Yes |
AzureChatDataSourceVectorizationSource
Representación de un origen de vectorización de datos que se puede usar como un recurso de inserción con un origen de datos.
Discriminador para AzureChatDataSourceVectorizationSource
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
deployment_name |
AzureChatDataSourceDeploymentNameVectorizationSource |
integrated |
AzureChatDataSourceIntegratedVectorizationSource |
model_id |
AzureChatDataSourceModelIdVectorizationSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | object | Yes |
AzureChatDataSourceVectorizationSourceType
| Property | Value |
|---|---|
| Type | string |
| Values | endpointdeployment_namemodel_idintegrated |
AzureChatMessageContext
Una propiedad adicional, agregada a los mensajes de respuesta de finalización del chat, generados por el servicio openAI Azure cuando se usa el comportamiento de la extensión. Esto incluye la intención y la información de cita de la característica En los datos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | object | Información de resumen sobre los documentos recuperados por la operación de recuperación de datos. | No | |
| └─ chunk_id | string | Identificador del fragmento de la cita. | No | |
| └─ content | string | Contenido de la cita. | No | |
| └─ data_source_index | integer | Índice del origen de datos usado para la recuperación. | No | |
| └─ filepath | string | Ruta de acceso del archivo para la cita. | No | |
| └─ filter_reason | enum | Si procede, indica por qué se filtre el documento. Valores posibles: score, rerank |
No | |
| └─ original_search_score | number | Puntuación de búsqueda original para la recuperación. | No | |
| └─ rerank_score | number | Puntuación de rerank para la recuperación. | No | |
| └─ search_queries | array | Las consultas de búsqueda ejecutadas para recuperar documentos. | No | |
| └─ title | string | Título de la cita. | No | |
| └─ url | string | Dirección URL de la cita. | No | |
| citations | array | Las citas producidas por la recuperación de datos. | No | |
| intent | string | La intención detectada del historial de chat, que se usa para llevar el contexto de conversación entre interacciones | No |
AzureContentFilterBlocklistResult
Colección de resultados de filtrado true/false para listas de bloqueo personalizadas configuradas.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | Los pares de identificadores individuales de lista de bloqueos y si han dado lugar a una acción de filtrado. | No | |
| filtered | boolean | Valor que indica si alguna de las listas de bloqueados detalladas produjo una acción de filtrado. | Yes |
AzureContentFilterCompletionTextSpan
Representación de un intervalo de texto de finalización que usa Azure resultados de filtro de contenido de OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | integer | Desplazamiento del primer punto de código UTF32 que se excluye del intervalo. Este campo siempre es igual a completion_start_offset para intervalos vacíos. Este campo siempre es mayor que completion_start_offset para intervalos no vacíos. | Yes | |
| completion_start_offset | integer | Desplazamiento del punto de código UTF32 que comienza el intervalo. | Yes |
AzureContentFilterCompletionTextSpanDetectionResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | Información detallada sobre los intervalos de texto de finalización detectados. | Yes | |
| detected | boolean | Indica si se detectó la categoría de contenido con etiqueta en el contenido. | Yes | |
| filtered | boolean | Si la detección de contenido dio lugar a una acción de filtrado de contenido. | Yes |
AzureContentFilterCustomTopicResult
Colección de resultados de filtrado true/false para temas personalizados configurados.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | Pares de identificadores de tema individuales y si se detectan. | No | |
| filtered | boolean | Valor que indica si alguno de los temas detallados produjo una acción de filtrado. | Yes |
AzureContentFilterDetectionResult
Elemento de resultado de filtro de contenido etiquetado que indica si se detectó el contenido y si se filtre el contenido.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | Indica si se detectó la categoría de contenido con etiqueta en el contenido. | Yes | |
| filtered | boolean | Si la detección de contenido dio lugar a una acción de filtrado de contenido. | Yes |
AzureContentFilterImagePromptResults
Resultado del filtro de contenido para el contenido de la solicitud de entrada de una operación de generación de imágenes.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | object | Colección de resultados de filtrado true/false para listas de bloqueo personalizadas configuradas. | No | |
| └─ details | array | Los pares de identificadores individuales de lista de bloqueos y si han dado lugar a una acción de filtrado. | No | |
| └─ filtered | boolean | Valor que indica si alguna de las listas de bloqueados detalladas produjo una acción de filtrado. | No | |
| custom_topics | object | Colección de resultados de filtrado true/false para temas personalizados configurados. | No | |
| └─ details | array | Pares de identificadores de tema individuales y si se detectan. | No | |
| └─ filtered | boolean | Valor que indica si alguno de los temas detallados produjo una acción de filtrado. | No | |
| jailbreak | object | Elemento de resultado de filtro de contenido etiquetado que indica si se detectó el contenido y si se filtre el contenido. | Yes | |
| └─ detected | boolean | Indica si se detectó la categoría de contenido con etiqueta en el contenido. | No | |
| └─ filtered | boolean | Si la detección de contenido dio lugar a una acción de filtrado de contenido. | No | |
| profanity | object | Elemento de resultado de filtro de contenido etiquetado que indica si se detectó el contenido y si se filtre el contenido. | No | |
| └─ detected | boolean | Indica si se detectó la categoría de contenido con etiqueta en el contenido. | No | |
| └─ filtered | boolean | Si la detección de contenido dio lugar a una acción de filtrado de contenido. | No |
AzureContentFilterImageResponseResults
Resultado del filtro de contenido para el contenido de respuesta de salida de una operación de generación de imágenes.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hate | object | Elemento de resultado de filtro de contenido etiquetado que indica si se filtre el contenido y cuál era el nivel de gravedad cualitativo del contenido, tal como se evaluó con respecto a la configuración del filtro de contenido para la categoría. | No | |
| └─ filtered | boolean | Si la gravedad del contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ severity | enum | Gravedad etiquetada del contenido. Valores posibles: safe, low, medium, high |
No | |
| self_harm | object | Elemento de resultado de filtro de contenido etiquetado que indica si se filtre el contenido y cuál era el nivel de gravedad cualitativo del contenido, tal como se evaluó con respecto a la configuración del filtro de contenido para la categoría. | No | |
| └─ filtered | boolean | Si la gravedad del contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ severity | enum | Gravedad etiquetada del contenido. Valores posibles: safe, low, medium, high |
No | |
| sexual | object | Elemento de resultado de filtro de contenido etiquetado que indica si se filtre el contenido y cuál era el nivel de gravedad cualitativo del contenido, tal como se evaluó con respecto a la configuración del filtro de contenido para la categoría. | No | |
| └─ filtered | boolean | Si la gravedad del contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ severity | enum | Gravedad etiquetada del contenido. Valores posibles: safe, low, medium, high |
No | |
| violence | object | Elemento de resultado de filtro de contenido etiquetado que indica si se filtre el contenido y cuál era el nivel de gravedad cualitativo del contenido, tal como se evaluó con respecto a la configuración del filtro de contenido para la categoría. | No | |
| └─ filtered | boolean | Si la gravedad del contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ severity | enum | Gravedad etiquetada del contenido. Valores posibles: safe, low, medium, high |
No |
AzureContentFilterResultForChoice
Resultado del filtro de contenido para un único elemento de respuesta generado por un sistema de IA generativo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | object | Colección de resultados de filtrado true/false para listas de bloqueo personalizadas configuradas. | No | |
| └─ details | array | Los pares de identificadores individuales de lista de bloqueos y si han dado lugar a una acción de filtrado. | No | |
| └─ filtered | boolean | Valor que indica si alguna de las listas de bloqueados detalladas produjo una acción de filtrado. | No | |
| custom_topics | object | Colección de resultados de filtrado true/false para temas personalizados configurados. | No | |
| └─ details | array | Pares de identificadores de tema individuales y si se detectan. | No | |
| └─ filtered | boolean | Valor que indica si alguno de los temas detallados produjo una acción de filtrado. | No | |
| error | object | Si está presente, detalles sobre un error que impedía que el filtrado de contenido completara su evaluación. | No | |
| └─ code | integer | Un código distinto legible por la máquina asociado al error. | No | |
| └─ message | string | Mensaje legible asociado al error. | No | |
| hate | object | Elemento de resultado de filtro de contenido etiquetado que indica si se filtre el contenido y cuál era el nivel de gravedad cualitativo del contenido, tal como se evaluó con respecto a la configuración del filtro de contenido para la categoría. | No | |
| └─ filtered | boolean | Si la gravedad del contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ severity | enum | Gravedad etiquetada del contenido. Valores posibles: safe, low, medium, high |
No | |
| profanity | object | Elemento de resultado de filtro de contenido etiquetado que indica si se detectó el contenido y si se filtre el contenido. | No | |
| └─ detected | boolean | Indica si se detectó la categoría de contenido con etiqueta en el contenido. | No | |
| └─ filtered | boolean | Si la detección de contenido dio lugar a una acción de filtrado de contenido. | No | |
| protected_material_code | object | Resultado de detección que describe una coincidencia con el código con licencia u otro material de origen protegido. | No | |
| └─ citation | object | Si está disponible, los detalles de la cita que describen la licencia asociada y su ubicación. | No | |
| └─ URL | string | Dirección URL asociada a la licencia. | No | |
| └─ license | string | Nombre o identificador de la licencia asociada a la detección. | No | |
| └─ detected | boolean | Indica si se detectó la categoría de contenido con etiqueta en el contenido. | No | |
| └─ filtered | boolean | Si la detección de contenido dio lugar a una acción de filtrado de contenido. | No | |
| protected_material_text | object | Elemento de resultado de filtro de contenido etiquetado que indica si se detectó el contenido y si se filtre el contenido. | No | |
| └─ detected | boolean | Indica si se detectó la categoría de contenido con etiqueta en el contenido. | No | |
| └─ filtered | boolean | Si la detección de contenido dio lugar a una acción de filtrado de contenido. | No | |
| self_harm | object | Elemento de resultado de filtro de contenido etiquetado que indica si se filtre el contenido y cuál era el nivel de gravedad cualitativo del contenido, tal como se evaluó con respecto a la configuración del filtro de contenido para la categoría. | No | |
| └─ filtered | boolean | Si la gravedad del contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ severity | enum | Gravedad etiquetada del contenido. Valores posibles: safe, low, medium, high |
No | |
| sexual | object | Elemento de resultado de filtro de contenido etiquetado que indica si se filtre el contenido y cuál era el nivel de gravedad cualitativo del contenido, tal como se evaluó con respecto a la configuración del filtro de contenido para la categoría. | No | |
| └─ filtered | boolean | Si la gravedad del contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ severity | enum | Gravedad etiquetada del contenido. Valores posibles: safe, low, medium, high |
No | |
| ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | No | ||
| violence | object | Elemento de resultado de filtro de contenido etiquetado que indica si se filtre el contenido y cuál era el nivel de gravedad cualitativo del contenido, tal como se evaluó con respecto a la configuración del filtro de contenido para la categoría. | No | |
| └─ filtered | boolean | Si la gravedad del contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ severity | enum | Gravedad etiquetada del contenido. Valores posibles: safe, low, medium, high |
No |
AzureContentFilterResultForPrompt
Resultado del filtro de contenido asociado a un único elemento de solicitud de entrada en un sistema de IA generativo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | object | Detalles de la categoría del filtro de contenido para el resultado. | No | |
| └─ custom_blocklists | object | Colección de resultados de filtrado true/false para listas de bloqueo personalizadas configuradas. | No | |
| └─ details | array | Los pares de identificadores individuales de lista de bloqueos y si han dado lugar a una acción de filtrado. | No | |
| └─ filtered | boolean | Valor que indica si alguna de las listas de bloqueados detalladas produjo una acción de filtrado. | No | |
| └─ custom_topics | object | Colección de resultados de filtrado true/false para temas personalizados configurados. | No | |
| └─ details | array | Pares de identificadores de tema individuales y si se detectan. | No | |
| └─ filtered | boolean | Valor que indica si alguno de los temas detallados produjo una acción de filtrado. | No | |
| └─ error | object | Si está presente, detalles sobre un error que impedía que el filtrado de contenido completara su evaluación. | No | |
| └─ code | integer | Un código distinto legible por la máquina asociado al error. | No | |
| └─ message | string | Mensaje legible asociado al error. | No | |
| └─ hate | object | Elemento de resultado de filtro de contenido etiquetado que indica si se filtre el contenido y cuál era el nivel de gravedad cualitativo del contenido, tal como se evaluó con respecto a la configuración del filtro de contenido para la categoría. | No | |
| └─ filtered | boolean | Si la gravedad del contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ severity | enum | Gravedad etiquetada del contenido. Valores posibles: safe, low, medium, high |
No | |
| └─ indirect_attack | object | Elemento de resultado de filtro de contenido etiquetado que indica si se detectó el contenido y si se filtre el contenido. | No | |
| └─ detected | boolean | Indica si se detectó la categoría de contenido con etiqueta en el contenido. | No | |
| └─ filtered | boolean | Si la detección de contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ jailbreak | object | Elemento de resultado de filtro de contenido etiquetado que indica si se detectó el contenido y si se filtre el contenido. | No | |
| └─ detected | boolean | Indica si se detectó la categoría de contenido con etiqueta en el contenido. | No | |
| └─ filtered | boolean | Si la detección de contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ profanity | object | Elemento de resultado de filtro de contenido etiquetado que indica si se detectó el contenido y si se filtre el contenido. | No | |
| └─ detected | boolean | Indica si se detectó la categoría de contenido con etiqueta en el contenido. | No | |
| └─ filtered | boolean | Si la detección de contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ self_harm | object | Elemento de resultado de filtro de contenido etiquetado que indica si se filtre el contenido y cuál era el nivel de gravedad cualitativo del contenido, tal como se evaluó con respecto a la configuración del filtro de contenido para la categoría. | No | |
| └─ filtered | boolean | Si la gravedad del contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ severity | enum | Gravedad etiquetada del contenido. Valores posibles: safe, low, medium, high |
No | |
| └─ sexual | object | Elemento de resultado de filtro de contenido etiquetado que indica si se filtre el contenido y cuál era el nivel de gravedad cualitativo del contenido, tal como se evaluó con respecto a la configuración del filtro de contenido para la categoría. | No | |
| └─ filtered | boolean | Si la gravedad del contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ severity | enum | Gravedad etiquetada del contenido. Valores posibles: safe, low, medium, high |
No | |
| └─ violence | object | Elemento de resultado de filtro de contenido etiquetado que indica si se filtre el contenido y cuál era el nivel de gravedad cualitativo del contenido, tal como se evaluó con respecto a la configuración del filtro de contenido para la categoría. | No | |
| └─ filtered | boolean | Si la gravedad del contenido dio lugar a una acción de filtrado de contenido. | No | |
| └─ severity | enum | Gravedad etiquetada del contenido. Valores posibles: safe, low, medium, high |
No | |
| prompt_index | integer | Índice del símbolo del sistema de entrada asociado a las categorías de resultados del filtro de contenido que lo acompaña. | No |
AzureContentFilterSeverityResult
Elemento de resultado de filtro de contenido etiquetado que indica si se filtre el contenido y cuál era el nivel de gravedad cualitativo del contenido, tal como se evaluó con respecto a la configuración del filtro de contenido para la categoría.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Si la gravedad del contenido dio lugar a una acción de filtrado de contenido. | Yes | |
| severity | enum | Gravedad etiquetada del contenido. Valores posibles: safe, low, medium, high |
Yes |
AzureCosmosDBChatDataSource
Representa una configuración del origen de datos que usará un recurso de Azure CosmosDB.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Información de parámetros para controlar el uso del origen de datos de Azure CosmosDB. | Yes | |
| └─ allow_partial_result | boolean | Si se establece en true, el sistema permitirá que se usen resultados de búsqueda parciales y se producirá un error en la solicitud si se produce un error en todas las consultas parciales. Si no se especifica o se especifica como false, se producirá un error en la solicitud si se produce un error en alguna consulta de búsqueda. | No | False |
| └─ authentication | AzureChatDataSourceConnectionStringAuthenticationOptions | No | ||
| └─ container_name | string | No | ||
| └─ database_name | string | No | ||
| └─ embedding_dependency | AzureChatDataSourceVectorizationSource | Representación de un origen de vectorización de datos que se puede usar como un recurso de inserción con un origen de datos. | No | |
| └─ fields_mapping | object | No | ||
| └─ content_fields | array | No | ||
| └─ content_fields_separator | string | No | ||
| └─ filepath_field | string | No | ||
| └─ title_field | string | No | ||
| └─ url_field | string | No | ||
| └─ vector_fields | array | No | ||
| └─ in_scope | boolean | Si las consultas deben restringirse al uso de los datos indexados. | No | |
| └─ include_contexts | array | Propiedades de contexto de salida que se van a incluir en la respuesta. De forma predeterminada, se solicitarán citas e intenciones. |
No | ['citations', 'intent'] |
| └─ index_name | string | No | ||
| └─ max_search_queries | integer | Número máximo de consultas reescritas que se deben enviar al proveedor de búsqueda para un único mensaje de usuario. De forma predeterminada, el sistema realizará una determinación automática. |
No | |
| └─ strictness | integer | La estricta configuración del filtrado de relevancia de búsqueda. Una mayor precisión aumentará la precisión, pero la menor recuperación de la respuesta. |
No | |
| └─ top_n_documents | integer | Número configurado de documentos que se van a presentar en la consulta. | No | |
| type | enum | Identificador de tipo discriminado, que siempre es "azure_cosmos_db". Valores posibles: azure_cosmos_db |
Yes |
AzureCreateChatCompletionRequest
Modelo de solicitud extendida para finalizaciones de chat en el servicio Azure OpenAI. Esto agrega la capacidad de proporcionar orígenes de datos para la característica En los datos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parámetros para la salida de audio. Obligatorio cuando se solicita la salida de audio con modalities: ["audio"]. |
No | |
| └─ format | enum | Especifica el formato de audio de salida. Debe ser uno de los elementos wav, mp3, flac, opuso pcm16.Valores posibles: wav, aac, mp3, flac, , opus, pcm16 |
No | |
| └─ voice | object | No | ||
| data_sources | array | Los orígenes de datos que se van a usar para la característica En sus datos, exclusivos de Azure OpenAI. | No | |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que el modelo repita la misma línea textualmente. | No | 0 |
| function_call | enum | Especificar una función determinada a través de {"name": "my_function"} obliga al modelo a llamar a esa función.Valores posibles: none, auto |
No | |
| functions | array | En desuso en favor de tools.Una lista de funciones para las que el modelo puede generar entradas JSON. |
No | |
| logit_bias | object | Modifique la probabilidad de que aparezcan los tokens especificados en la finalización. Acepta un objeto JSON que asigna tokens (especificados por su identificador de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará por modelo, pero los valores entre -1 y 1 deben disminuir o aumentar la probabilidad de selección; los valores como -100 o 100 deben dar lugar a una prohibición o selección exclusiva del token correspondiente. |
No | None |
| logprobs | boolean | Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en de contentmessage. |
No | False |
| max_completion_tokens | integer | Límite superior para el número de tokens que se pueden generar para una finalización, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| max_tokens | integer | Número máximo de tokens que se pueden generar en la finalización del chat. Este valor se puede usar para controlar los costos de texto generado a través de la API. Este valor ahora está en desuso en favor de max_completion_tokensy no es compatible con los modelos de la serie o1. |
No | |
| messages | array | Una lista de mensajes que componen la conversación hasta ahora. Según el modelo que use, se admiten diferentes tipos de mensajes (modalidades), como texto, imágenes y audio. | Yes | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| modalities | object | Tipos de salida que desea que genere el modelo. La mayoría de los modelos son capaces de generar texto, que es el valor predeterminado: ["text"]El gpt-4o-audio-preview modelo también se puede usar para generar audio. Para solicitar que este modelo genere respuestas de texto y audio, puede usar:["text", "audio"] |
No | |
| model | string | Identificador de implementación del modelo que se va a usar para la solicitud de finalización del chat. | Yes | |
| n | integer | Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada. Tenga en cuenta que se le cobrará en función del número de tokens generados en todas las opciones. Mantenga n el modo de 1 minimizar los costos. |
No | 1 |
| parallel_tool_calls | object | Indica si se debe habilitar la llamada a funciones paralelas durante el uso de la herramienta. | No | |
| prediction | object | Representación base de la salida predicha de un modelo. | No | |
| └─ type | OpenAI.ChatOutputPredictionType | No | ||
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que el modelo hable sobre nuevos temas. | No | 0 |
| reasoning_effort | object |
Solo modelos de la serie o Restringe el esfuerzo en el razonamiento de los modelos de razonamiento. Actualmente, los valores admitidos son low, mediumy high. Reducir el esfuerzo de razonamiento puede dar lugar a respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta. |
No | |
| response_format | object | No | ||
| └─ type | enum | Valores posibles: text, json_object, json_schema |
No | |
| seed | integer | Esta característica está en beta. Si se especifica, nuestro sistema hará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con los mismos seed parámetros y deben devolver el mismo resultado.El determinismo no está garantizado y debe hacer referencia al system_fingerprint parámetro de respuesta para supervisar los cambios en el back-end. |
No | |
| stop | object | No se admite con los modelos o3 de razonamiento más recientes y o4-mini.Hasta 4 secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención. |
No | |
| store | boolean | Si se va a almacenar o no la salida de esta solicitud de finalización del chat para su uso en los productos de destilación de modelos ovales. | No | False |
| stream | boolean | Si se establece en true, los datos de respuesta del modelo se transmitirán al cliente a medida que se generan mediante eventos enviados por el servidor. | No | False |
| stream_options | object | Opciones para la respuesta de streaming. Establézcalo solo cuando establezca stream: true. |
No | |
| └─ include_usage | boolean | Si se establece, se transmitirá un fragmento adicional antes del data: [DONE] mensaje. El usage campo de este fragmento muestra las estadísticas de uso del token para toda la solicitud y el choices campo siempre será una matriz vacía.Todos los demás fragmentos también incluirán un usage campo, pero con un valor NULL.
NOTA: Si se interrumpe la secuencia, es posible que no reciba el fragmento de uso final que contiene el uso total del token para la solicitud. |
No | |
| temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | 1 |
| tool_choice | OpenAI.ChatCompletionToolChoiceOption | Controla la herramienta a la que llama el modelo (si existe).none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje.auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas.required significa que el modelo debe llamar a una o varias herramientas.Especificar una herramienta determinada a través de {"type": "function", "function": {"name": "my_function"}} fuerza al modelo a llamar a esa herramienta.none es el valor predeterminado cuando no hay herramientas presentes.
auto es el valor predeterminado si las herramientas están presentes. |
No | |
| tools | array | Una lista de herramientas a las que puede llamar el modelo. Actualmente, solo se admiten funciones como una herramienta. Úselo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. Se admite un máximo de 128 funciones. | No | |
| top_logprobs | integer | Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada. | No | |
| top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | 1 |
| user | string | Identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos. | No | |
| user_security_context | AzureUserSecurityContext | El contexto de seguridad del usuario contiene varios parámetros que describen la propia aplicación y el usuario final que interactúa con la aplicación. Estos campos ayudan a los equipos de operaciones de seguridad a investigar y mitigar los incidentes de seguridad al proporcionar un enfoque integral para proteger las aplicaciones de inteligencia artificial. Learn más sobre la protección de aplicaciones de inteligencia artificial mediante Microsoft Defender para la nube. | No |
AzureCreateChatCompletionResponse
Modelo extendido de respuesta de finalización de chat de nivel superior para el servicio OpenAI de Azure. Este modelo agrega anotaciones de filtro de contenido de IA responsable para la entrada del mensaje.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Yes | ||
| created | integer | Marca de tiempo de Unix (en segundos) de cuando se creó la finalización del chat. | Yes | |
| id | string | Identificador único para la finalización del chat. | Yes | |
| model | string | Modelo usado para la finalización del chat. | Yes | |
| object | enum | Tipo de objeto, que siempre chat.completiones .Valores posibles: chat.completion |
Yes | |
| prompt_filter_results | array | Las anotaciones de filtro de contenido de IA responsable asociadas a entradas de solicitud en finalizaciones de chat. | No | |
| system_fingerprint | string | Esta huella digital representa la configuración de back-end con la que se ejecuta el modelo. Se puede usar junto con el seed parámetro de solicitud para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo. |
No | |
| usage | OpenAI.CompletionUsage | Estadísticas de uso de la solicitud de finalización. | No |
AzureCreateChatCompletionStreamResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Una lista de opciones de finalización de chat. Puede contener más de un elemento si n es mayor que 1. También puede estar vacío para el último fragmento si establece stream_options: {"include_usage": true}. |
Yes | |
| content_filter_results | AzureContentFilterResultForChoice | Resultado del filtro de contenido para un único elemento de respuesta generado por un sistema de IA generativo. | No | |
| created | integer | Marca de tiempo de Unix (en segundos) de cuando se creó la finalización del chat. Cada fragmento tiene la misma marca de tiempo. | Yes | |
| delta | AzureChatCompletionStreamResponseDelta | El modelo de respuesta extendida para un mensaje de respuesta de chat en streaming en el Azure servicio OpenAI. Este modelo agrega compatibilidad con el contexto del mensaje de chat, que usa la característica On Your Data para la intención, las citas y otra información relacionada con la generación aumentada de recuperación realizada. |
No | |
| id | string | Identificador único para la finalización del chat. Cada fragmento tiene el mismo identificador. | Yes | |
| model | string | Modelo para generar la finalización. | Yes | |
| object | enum | Tipo de objeto, que siempre chat.completion.chunkes .Valores posibles: chat.completion.chunk |
Yes | |
| system_fingerprint | string | Esta huella digital representa la configuración de back-end con la que se ejecuta el modelo. Se puede usar junto con el seed parámetro de solicitud para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo. |
No | |
| usage | object | Estadísticas de uso de la solicitud de finalización. | No | |
| └─ completion_tokens | integer | Número de tokens en la finalización generada. | No | 0 |
| └─ completion_tokens_details | object | Desglose de los tokens usados en una finalización. | No | |
| └─ accepted_prediction_tokens | integer | Cuando se usan salidas de predicción, el número de tokens de la predicción que apareció en la finalización. | No | 0 |
| └─ audio_tokens | integer | Tokens de entrada de audio generados por el modelo. | No | 0 |
| └─ reasoning_tokens | integer | Tokens generados por el modelo para el razonamiento. | No | 0 |
| └─ rejected_prediction_tokens | integer | Cuando se usan salidas de predicción, el número de tokens de la predicción que no aparecen en la finalización. Sin embargo, al igual que los tokens de razonamiento, estos tokens todavía se cuentan en los tokens de finalización total con fines de facturación, salida y límites de ventana de contexto. | No | 0 |
| └─ prompt_tokens | integer | Número de tokens en el símbolo del sistema. | No | 0 |
| └─ prompt_tokens_details | object | Desglose de los tokens usados en el símbolo del sistema. | No | |
| └─ audio_tokens | integer | Tokens de entrada de audio presentes en el símbolo del sistema. | No | 0 |
| └─ cached_tokens | integer | Tokens almacenados en caché presentes en el símbolo del sistema. | No | 0 |
| └─ total_tokens | integer | Número total de tokens usados en la solicitud (solicitud + finalización). | No | 0 |
AzureCreateEmbeddingRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | Número de dimensiones que deben tener las incrustaciones de salida resultantes. Solo se admite en text-embedding-3 modelos posteriores y posteriores. |
No | |
| encoding_format | enum | Formato en el que se devuelven las incrustaciones. Puede ser float o base64.Valores posibles: float, base64 |
No | |
| input | string o array | Yes | ||
| model | string | Modelo que se va a usar para la solicitud de inserción. | Yes | |
| user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | No |
AzureCreateFileRequestMultiPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | object | Yes | ||
| └─ anchor | AzureFileExpiryAnchor | No | ||
| └─ seconds | integer | No | ||
| file | string | Yes | ||
| purpose | enum | Propósito previsto del archivo cargado. Uno de los siguientes: assistants: se usa en la API batchde asistentes: : se usa en batch API fine-tune: se usa para el ajuste preciso: evals: se usa para conjuntos de datos de valor. Valores posibles: assistants, batch, fine-tune, evals |
Yes |
AzureCreateImageEditRequestMultiPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | Permite establecer transparencia para el fondo de las imágenes generadas. Este parámetro solo se admite para gpt-image-1 los modelos. Debe ser , transparentopaque o auto (valor predeterminado). Cuando auto se usa, el modelo determinará automáticamente el mejor fondo para la imagen.Si transparentes , el formato de salida debe admitir la transparencia, por lo que debe establecerse png en (valor predeterminado) o webp.Valores posibles: transparent, opaque, auto |
No | |
| image | string o array | Yes | ||
| mask | string | No | ||
| model | string | Implementación del modelo que se va a usar para la operación de edición de imágenes. | Yes | |
| n | integer | Número de imágenes que se van a generar. Debe estar entre 1 y 10. | No | 1 |
| output_compression | integer | Nivel de compresión (0-100%) para las imágenes generadas. Este parámetro solo se admite para gpt-image-1los modelos de la serie -con formatos webp de salida o jpeg y el valor predeterminado es 100. |
No | 100 |
| output_format | enum | Formato en el que se devuelven las imágenes generadas. Este parámetro solo se admite para gpt-image-1los modelos de la serie -. Debe ser uno de png, jpego webp.El valor predeterminado es png.Valores posibles: png, jpeg, webp |
No | |
| prompt | string | Descripción de texto de las imágenes deseadas. La longitud máxima es de 1000 caracteres para dall-e-2, y 32000 caracteres para gpt-image-1los modelos de serie . |
Yes | |
| quality | enum | Calidad de la imagen que se generará.
high, medium y low solo se admiten para gpt-image-1los modelos de la serie .
dall-e-2 solo admite standard calidad. El valor predeterminado es auto.Valores posibles: standard, low, medium, , high, auto |
No | |
| response_format | enum | Formato en el que se devuelven las imágenes generadas. Debe ser uno de url o b64_json. Las direcciones URL solo son válidas durante 60 minutos después de que se haya generado la imagen. Este parámetro solo se admite para dall-e-2, ya gpt-image-1que los modelos de serie siempre devolverán imágenes codificadas en base64.Valores posibles: url, b64_json |
No | |
| size | enum | Tamaño de las imágenes generadas. Debe ser uno de 1024x1024, 1536x1024 (horizontal), 1024x1536 (vertical) o auto (valor predeterminado) para gpt-image-1los modelos de la serie y uno de 256x256, 512x512o 1024x1024 para dall-e-2.Valores posibles: 256x256, 512x512, 1024x1024, 1536x1024, , 1024x1536, auto |
No | |
| user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | No |
AzureCreateImageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | Permite establecer transparencia para el fondo de las imágenes generadas. Este parámetro solo se admite para gpt-image-1 los modelos. Debe ser , transparentopaque o auto (valor predeterminado). Cuando auto se usa, el modelo determinará automáticamente el mejor fondo para la imagen.Si transparentes , el formato de salida debe admitir la transparencia, por lo que debe establecerse png en (valor predeterminado) o webp.Valores posibles: transparent, opaque, auto |
No | |
| model | string | Implementación del modelo que se va a usar para la generación de imágenes. | Yes | |
| moderation | enum | Controle el nivel de moderación de contenido para las imágenes generadas por gpt-image-1modelos de serie. Debe ser low para un filtrado menos restrictivo o auto (valor predeterminado).Valores posibles: low, auto |
No | |
| n | integer | Número de imágenes que se van a generar. Debe estar entre 1 y 10. Para dall-e-3, solo n=1 se admite. |
No | 1 |
| output_compression | integer | Nivel de compresión (0-100%) para las imágenes generadas. Este parámetro solo se admite para gpt-image-1los modelos de la serie -con formatos webp de salida o jpeg y el valor predeterminado es 100. |
No | 100 |
| output_format | enum | Formato en el que se devuelven las imágenes generadas. Este parámetro solo se admite para gpt-image-1los modelos de la serie -. Debe ser uno de png, jpego webp.Valores posibles: png, jpeg, webp |
No | |
| prompt | string | Descripción de texto de las imágenes deseadas. | Yes | |
| quality | enum | Calidad de la imagen que se generará. - auto (valor predeterminado) seleccionará automáticamente la mejor calidad para el modelo especificado.- high, medium y low son compatibles con gpt-image-1los modelos de la serie .- hd y standard son compatibles con dall-e-3.- standard es la única opción para dall-e-2.Valores posibles: standard, hd, low, medium, , high, auto |
No | |
| response_format | enum | Formato en el que se devuelven las imágenes generadas con dall-e-2 y dall-e-3 . Debe ser uno de url o b64_json. Las direcciones URL solo son válidas durante 60 minutos después de que se haya generado la imagen. Este parámetro no se admite para gpt-image-1los modelos de la serie -que siempre devolverán imágenes codificadas en base64.Valores posibles: url, b64_json |
No | |
| size | enum | Tamaño de las imágenes generadas. Debe ser uno de 1024x1024, 1536x1024 (horizontal), 1024x1536 (vertical) o auto (valor predeterminado) para gpt-image-1los modelos de serie , uno de 256x256, 512x512o 1024x1024 para dall-e-2, y uno de 1024x1024, 1792x1024o 1024x1792 para dall-e-3.Valores posibles: auto, 1024x1024, 1536x1024, 1024x1536, 256x256, 512x512, , , 1792x10241024x1792 |
No | |
| style | enum | Estilo de las imágenes generadas. Este parámetro solo se admite para dall-e-3. Debe ser uno de vivid o natural. Vívido hace que el modelo se inclina hacia la generación de imágenes hiper-reales y dramáticas. Natural hace que el modelo produzca imágenes más naturales y menos hiper-reales.Valores posibles: vivid, natural |
No | |
| user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | No |
AzureCreateResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | boolean | Si se va a ejecutar la respuesta del modelo en segundo plano. | No | False |
| include | array | Especifique datos de salida adicionales que se incluirán en la respuesta del modelo. Los valores admitidos actualmente son: - code_interpreter_call.outputs: incluye las salidas de la ejecución de código de Python en los elementos de llamada de la herramienta de intérprete de código.- computer_call_output.output.image_url: incluya direcciones URL de imagen desde la salida de la llamada del equipo.- file_search_call.results: incluya los resultados de búsqueda de la llamada a la herramienta de búsqueda de archivos.- message.input_image.image_url: incluya direcciones URL de imagen del mensaje de entrada.- message.output_text.logprobs: incluya logprobs con mensajes de asistente.- reasoning.encrypted_content: incluye una versión cifrada de tokens de razonamiento en las salidas del elemento de razonamiento. Esto permite usar elementos de razonamiento en conversaciones multiturno cuando se usa la API de respuestas sin estado (como cuando el store parámetro se establece falseen o cuando una organización está inscrita en el programa de retención de datos cero). |
No | |
| input | string o array | No | ||
| instructions | string | Mensaje del sistema (o desarrollador) insertado en el contexto del modelo. Al usar junto con previous_response_id, las instrucciones de una respuesta anterior no se transferirán a la siguiente respuesta. Esto facilita el intercambio de mensajes del sistema (o desarrollador) en nuevas respuestas. |
No | |
| max_output_tokens | integer | Límite superior para el número de tokens que se pueden generar para una respuesta, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| max_tool_calls | integer | Número máximo de llamadas totales a herramientas integradas que se pueden procesar en una respuesta. Este número máximo se aplica en todas las llamadas a herramientas integradas, no por herramienta individual. Se omitirán todos los intentos adicionales de llamar a una herramienta por el modelo. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| model | string | Implementación del modelo que se va a usar para la creación de esta respuesta. | Yes | |
| parallel_tool_calls | boolean | Si se permite que el modelo ejecute llamadas de herramienta en paralelo. | No | True |
| previous_response_id | string | Identificador único de la respuesta anterior al modelo. Úselo para crear conversaciones multiturno. | No | |
| prompt | object | Referencia a una plantilla de solicitud y sus variables. | No | |
| └─ id | string | Identificador único de la plantilla de solicitud que se va a usar. | No | |
| └─ variables | OpenAI.ResponsePromptVariables | Asignación opcional de valores para sustituir por variables en el símbolo del sistema. Los valores de sustitución pueden ser cadenas u otros tipos de entrada de respuesta, como imágenes o archivos. | No | |
| └─ version | string | Versión opcional de la plantilla de solicitud. | No | |
| reasoning | object |
Solo modelos de la serie o Opciones de configuración para modelos de razonamiento. |
No | |
| └─ effort | OpenAI.ReasoningEffort |
Solo modelos de la serie o Restringe el esfuerzo en el razonamiento de los modelos de razonamiento. Actualmente, los valores admitidos son low, mediumy high. Reducir el esfuerzo de razonamiento puede dar lugar a respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta. |
No | |
| └─ generate_summary | enum |
En desuso: use summary en su lugar.Resumen del razonamiento realizado por el modelo. Esto puede ser útil para depurar y comprender el proceso de razonamiento del modelo. Uno de auto, conciseo detailed.Valores posibles: auto, concise, detailed |
No | |
| └─ summary | enum | Resumen del razonamiento realizado por el modelo. Esto puede ser útil para depurar y comprender el proceso de razonamiento del modelo. Uno de auto, conciseo detailed.Valores posibles: auto, concise, detailed |
No | |
| store | boolean | Si se va a almacenar la respuesta del modelo generada para su recuperación posterior a través de la API. | No | True |
| stream | boolean | Si se establece en true, los datos de respuesta del modelo se transmitirán al cliente a medida que se generan mediante eventos enviados por el servidor. | No | False |
| temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | 1 |
| text | object | Opciones de configuración para una respuesta de texto del modelo. Puede ser texto sin formato o datos JSON estructurados. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | object | Controla la herramienta a la que llama el modelo (si existe).none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje.auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas.required significa que el modelo debe llamar a una o varias herramientas. |
No | |
| └─ type | OpenAI.ToolChoiceObjectType | Indica que el modelo debe usar una herramienta integrada para generar una respuesta. | No | |
| tools | array | Una matriz de herramientas que el modelo puede llamar al generar una respuesta. Puede especificar qué herramienta usar estableciendo el tool_choice parámetro .Las dos categorías de herramientas que puede proporcionar son: - Herramientas integradas: herramientas proporcionadas por OpenAI que amplían las funcionalidades del modelo, como la búsqueda de archivos. - Llamadas a funciones (herramientas personalizadas): funciones definidas por usted, lo que permite que el modelo llame a su propio código. |
No | |
| top_logprobs | integer | Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada. | No | |
| top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | 1 |
| truncation | enum | Estrategia de truncamiento que se va a usar para la respuesta del modelo. - auto: si el contexto de esta respuesta y los anteriores supera el tamaño de la ventana de contexto del modelo, el modelo truncará la respuesta para ajustarse a la ventana de contexto quitando los elementos de entrada en medio de la conversación.- disabled (valor predeterminado): si una respuesta del modelo superará el tamaño de la ventana de contexto de un modelo, se producirá un error 400 en la solicitud.Valores posibles: auto, disabled |
No | |
| user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | No |
AzureCreateSpeechRequestMultiPart
Representación de las opciones de solicitud que controlan el comportamiento de una operación de texto a voz.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Texto para el que se va a generar audio. La longitud máxima es de 4096 caracteres. | Yes | |
| instructions | string | Controle la voz del audio generado con instrucciones adicionales. No funciona con tts-1 o tts-1-hd. |
No | |
| model | string | Modelo que se va a usar para esta solicitud de texto a voz. | Yes | |
| response_format | object | Formatos de salida de audio admitidos para texto a voz. | No | |
| speed | number | Velocidad de voz para el audio generado. Los valores son válidos en el intervalo de 0,25 a 4,0, con 1,0 los valores predeterminados y superiores correspondientes a una voz más rápida. | No | 1 |
| stream_format | enum | Formato en el que se va a transmitir el audio. Los formatos admitidos son sse y audio.
sse no se admite para tts-1 o tts-1-hd.Valores posibles: sse, audio |
No | |
| voice | object | Yes |
AzureCreateTranscriptionRequestMultiPart
La información de configuración de una solicitud de transcripción de audio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | object | No | ||
| └─ prefix_padding_ms | integer | Cantidad de audio que se va a incluir antes de que el VAD detecte voz (en milisegundos). | No | 300 |
| └─ silence_duration_ms | integer | Duración del silencio para detectar la detención de voz (en milisegundos). Con valores más cortos, el modelo responderá más rápidamente, pero puede saltar en pausas cortas del usuario. |
No | 200 |
| └─ threshold | number | Umbral de confidencialidad (de 0,0 a 1,0) para la detección de actividad de voz. Un umbral superior requerirá audio más alto para activar el modelo y, por tanto, podría funcionar mejor en entornos ruidosos. | No | 0.5 |
| └─ type | enum | Debe establecerse en server_vad para habilitar la fragmentación manual mediante VAD del lado servidor.Valores posibles: server_vad |
No | |
| file | string | Yes | ||
| filename | string | Nombre de archivo opcional o identificador descriptivo al que se va a asociar con los datos de audio. | No | |
| include[] | array | Información adicional que se va a incluir en la respuesta de transcripción.logprobs devolverá las probabilidades de registro de los tokens en la respuesta para comprender la confianza del modelo en la transcripción.logprobs solo funciona con response_format establecido json en y solo con los modelos gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribey gpt-4o-mini-transcribe-2025-12-15. |
No | |
| language | string | Idioma del audio de entrada. Proporcionar el idioma de entrada en formato ISO-639-1 (por ejemplo, en) mejorará la precisión y la latencia. |
No | |
| model | string | Modelo que se va a usar para esta solicitud de transcripción. | No | |
| prompt | string | Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe coincidir con el idioma de audio. | No | |
| response_format | object | No | ||
| stream | boolean | Si se establece en true, los datos de respuesta del modelo se transmitirán al cliente a medida que se generan mediante eventos enviados por el servidor. Nota: El streaming no se admite para el whisper-1 modelo y se omitirá. |
No | False |
| temperature | number | Temperatura de muestreo, entre 0 y 1. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. | No | 0 |
| timestamp_granularities[] | array | Granularidades de marca de tiempo que se van a rellenar para esta transcripción.
response_format debe establecerse verbose_json para usar granularidades de marca de tiempo. Se admiten o ambas opciones: word, o segment. Nota: No hay ninguna latencia adicional para las marcas de tiempo de segmento, pero la generación de marcas de tiempo de palabra incurre en una latencia adicional. |
No | ['segment'] |
AzureCreateTranslationRequestMultiPart
La información de configuración de una solicitud de transcripción de audio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Yes | ||
| filename | string | Nombre de archivo opcional o identificador descriptivo al que se va a asociar con los datos de audio. | No | |
| model | string | Modelo que se va a usar para esta solicitud de traducción. | No | |
| prompt | string | Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe estar en inglés. | No | |
| response_format | object | No | ||
| temperature | number | Temperatura de muestreo, entre 0 y 1. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. | No | 0 |
AzureErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | object | Detalles del error. | No | |
| └─ code | string | Identificador distinto generado por la máquina para el error. | No | |
| └─ inner_error | No | |||
| └─ message | string | Mensaje legible asociado al error. | No | |
| └─ param | string | Si procede, el parámetro de entrada de solicitud asociado al error | No | |
| └─ type | enum | El tipo de objeto, siempre 'error'. Valores posibles: error |
No |
AzureEvalAPICompletionsSamplingParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parallel_tool_calls | boolean | No | ||
| response_format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tools | array | No |
AzureEvalAPIModelSamplingParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| max_tokens | integer | Número máximo de tokens en la salida generada. | No | |
| reasoning_effort | enum | Controla el nivel de esfuerzo de razonamiento aplicado durante la generación. Valores posibles: low, medium, high |
No | |
| seed | integer | Valor de inicialización para inicializar la aleatoriedad durante el muestreo. | No | |
| temperature | number | Una temperatura mayor aumenta la aleatoriedad en las salidas. | No | |
| top_p | number | Alternativa a la temperatura para el muestreo del núcleo; 1.0 incluye todos los tokens. | No |
AzureEvalAPIResponseSamplingParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parallel_tool_calls | boolean | No | ||
| response_format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tools | array | No |
AzureFileExpiryAnchor
| Property | Value |
|---|---|
| Type | string |
| Values | created_at |
AzureFineTuneReinforcementMethod
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Objeto StringCheckGrader que realiza una comparación de cadenas entre la entrada y la referencia mediante una operación especificada. | Yes | |
| └─ calculate_output | string | Fórmula para calcular la salida en función de los resultados del calificador. | No | |
| └─ evaluation_metric | enum | Métrica de evaluación que se va a usar. Uno de fuzzy_match, bleu, , gleumeteorrouge_1rouge_2rouge_3, , rouge_4, , rouge_5o .rouge_lValores posibles: fuzzy_match, bleu, , gleu, meteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ input | array | Texto de entrada. Esto puede incluir cadenas de plantilla. | No | |
| └─ model | string | Modelo que se va a usar para la evaluación. | No | |
| └─ name | string | Nombre del calificador. | No | |
| └─ operation | enum | Operación de comprobación de cadena que se va a realizar. Uno de eq, ne, likeo ilike.Valores posibles: eq, ne, like, ilike |
No | |
| └─ range | array | Intervalo de la puntuación. El valor predeterminado es [0, 1]. |
No | |
| └─ reference | string | Texto con el que se va a clasificar. | No | |
| └─ sampling_params | Parámetros de muestreo para el modelo. | No | ||
| └─ type | enum | Tipo de objeto, que siempre multies .Valores posibles: multi |
No | |
| hyperparameters | OpenAI.FineTuneReinforcementHyperparameters | Los hiperparámetros usados para el trabajo de ajuste fino de refuerzo. | No | |
| response_format | object | No | ||
| └─ json_schema | object | Esquema JSON para el formato de respuesta | No | |
| └─ type | enum | Tipo de formato de respuesta. Valores posibles: json_schema |
No |
AzureImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| b64_json | string | JSON codificado en base64 de la imagen generada. Valor predeterminado para gpt-image-1los modelos de serie -y solo está presente si response_format está establecido b64_json en para dall-e-2 y dall-e-3. |
No | |
| content_filter_results | AzureContentFilterImageResponseResults | Resultado del filtro de contenido para el contenido de respuesta de salida de una operación de generación de imágenes. | Yes | |
| prompt_filter_results | AzureContentFilterImagePromptResults | Resultado del filtro de contenido para el contenido de la solicitud de entrada de una operación de generación de imágenes. | Yes | |
| revised_prompt | string | Solo para dall-e-3 , la solicitud revisada que se usó para generar la imagen. |
No | |
| url | string | Cuando se usa dall-e-2 o dall-e-3, la dirección URL de la imagen generada si response_format se establece url en (valor predeterminado). No se admite para gpt-image-1los modelos de la serie . |
No |
AzureImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | GPT-image-1 solo: el parámetro de fondo usado para la generación de imágenes.
transparentO opaque .Valores posibles: transparent, opaque |
No | |
| created | integer | Marca de tiempo de Unix (en segundos) de cuando se creó la imagen. | Yes | |
| data | array | No | ||
| output_format | enum | Formato de salida de la generación de imágenes. Ya sea png, webpo jpeg.Valores posibles: png, webp, jpeg |
No | |
| quality | enum | Calidad de la imagen generada. Ya sea low, mediumo high.Valores posibles: low, medium, high |
No | |
| size | enum | Tamaño de la imagen generada. Ya sea 1024x1024, 1024x1536o 1536x1024.Valores posibles: 1024x1024, 1024x1536, 1536x1024 |
No | |
| usage | object | Solo para gpt-image-1los modelos de la serie -, la información de uso del token para la generación de imágenes. |
No | |
| └─ input_tokens | integer | Número de tokens (imágenes y texto) en el símbolo del sistema de entrada. | No | |
| └─ input_tokens_details | object | La información detallada de los tokens de entrada para la generación de imágenes. | No | |
| └─ image_tokens | integer | Número de tokens de imagen en el símbolo del sistema de entrada. | No | |
| └─ text_tokens | integer | Número de tokens de texto en el símbolo del sistema de entrada. | No | |
| └─ output_tokens | integer | Número de tokens de imagen en la imagen de salida. | No | |
| └─ total_tokens | integer | Número total de tokens (imágenes y texto) usados para la generación de imágenes. | No |
AzureListFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | enum | Valores posibles: list |
Yes |
AzureOpenAIFile
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | integer | Tamaño del archivo, en bytes. | Yes | |
| created_at | integer | Marca de tiempo de Unix (en segundos) para cuando se creó el archivo. | Yes | |
| expires_at | integer | Marca de tiempo de Unix (en segundos) para cuando expire el archivo. | No | |
| filename | string | Nombre del archivo. | Yes | |
| id | string | Identificador de archivo, al que se puede hacer referencia en los puntos de conexión de API. | Yes | |
| object | enum | Tipo de objeto, que siempre filees .Valores posibles: file |
Yes | |
| purpose | enum | Propósito previsto del archivo. Los valores admitidos son assistants, assistants_output, batch, batch_outputy fine-tunefine-tune-results.Valores posibles: assistants, assistants_output, batch, batch_output, fine-tune, , , fine-tune-resultsevals |
Yes | |
| status | enum | Valores posibles: uploaded, pending, running, processed, error, , , deletingdeleted |
Yes | |
| status_details | string | Deprecated. Para obtener más información sobre por qué se produjo un error en la validación de un archivo de entrenamiento de ajuste preciso, consulte el error campo en fine_tuning.job. |
No |
AzureOpenAIVideoGenerationErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Identificador distinto generado por la máquina para el error. | No | |
| inner_error | object | Si procede, un error ascendente que originó este error. | No | |
| └─ code | enum | Código asociado al error interno. Valores posibles: ResponsibleAIPolicyViolation |
No | |
| └─ error_details | Detalles del resultado del filtro de contenido asociados al error interno. | No | ||
| └─ revised_prompt | string | Si procede, la solicitud modificada usada para la generación. | No | |
| message | string | Mensaje legible asociado al error. | No | |
| param | string | Si procede, el parámetro de entrada de solicitud asociado al error | No | |
| type | string | Si procede, el número de línea de entrada asociado al error. | No |
AzureResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | boolean | Si se va a ejecutar la respuesta del modelo en segundo plano. | No | False |
| created_at | integer | Marca de tiempo de Unix (en segundos) de cuando se creó esta respuesta. | Yes | |
| error | object | Objeto de error devuelto cuando el modelo no puede generar una respuesta. | Yes | |
| └─ code | OpenAI.ResponseErrorCode | Código de error de la respuesta. | No | |
| └─ message | string | Descripción legible del error. | No | |
| id | string | Identificador único de esta respuesta. | Yes | |
| incomplete_details | object | Detalles sobre por qué la respuesta está incompleta. | Yes | |
| └─ reason | enum | Motivo por el que la respuesta está incompleta. Valores posibles: max_output_tokens, content_filter |
No | |
| instructions | string o array | Yes | ||
| max_output_tokens | integer | Límite superior para el número de tokens que se pueden generar para una respuesta, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| max_tool_calls | integer | Número máximo de llamadas totales a herramientas integradas que se pueden procesar en una respuesta. Este número máximo se aplica en todas las llamadas a herramientas integradas, no por herramienta individual. Se omitirán todos los intentos adicionales de llamar a una herramienta por el modelo. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
Yes | |
| model | string | Modelo que se usa para generar esta respuesta. | Yes | |
| object | enum | El tipo de objeto de este recurso: siempre se establece en response.Valores posibles: response |
Yes | |
| output | array | Matriz de elementos de contenido generados por el modelo. - La longitud y el orden de los elementos de la output matriz dependen de la respuesta del modelo.- En lugar de acceder al primer elemento de la output matriz y suponiendo que sea un assistant mensaje con el contenido generado por el modelo, puede considerar el uso de la output_text propiedad donde se admiten en los SDK. |
Yes | |
| output_text | string | Propiedad de solo comodidad del SDK que contiene la salida de texto agregada de todos los output_text elementos de la output matriz, si hay alguno presente.Se admite en los SDK de JavaScript y Python. |
No | |
| parallel_tool_calls | boolean | Si se permite que el modelo ejecute llamadas de herramienta en paralelo. | Yes | True |
| previous_response_id | string | Identificador único de la respuesta anterior al modelo. Úselo para crear conversaciones multiturno. | No | |
| prompt | object | Referencia a una plantilla de solicitud y sus variables. | No | |
| └─ id | string | Identificador único de la plantilla de solicitud que se va a usar. | No | |
| └─ variables | OpenAI.ResponsePromptVariables | Asignación opcional de valores para sustituir por variables en el símbolo del sistema. Los valores de sustitución pueden ser cadenas u otros tipos de entrada de respuesta, como imágenes o archivos. | No | |
| └─ version | string | Versión opcional de la plantilla de solicitud. | No | |
| reasoning | object |
Solo modelos de la serie o Opciones de configuración para modelos de razonamiento. |
No | |
| └─ effort | OpenAI.ReasoningEffort |
Solo modelos de la serie o Restringe el esfuerzo en el razonamiento de los modelos de razonamiento. Actualmente, los valores admitidos son low, mediumy high. Reducir el esfuerzo de razonamiento puede dar lugar a respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta. |
No | |
| └─ generate_summary | enum |
En desuso: use summary en su lugar.Resumen del razonamiento realizado por el modelo. Esto puede ser útil para depurar y comprender el proceso de razonamiento del modelo. Uno de auto, conciseo detailed.Valores posibles: auto, concise, detailed |
No | |
| └─ summary | enum | Resumen del razonamiento realizado por el modelo. Esto puede ser útil para depurar y comprender el proceso de razonamiento del modelo. Uno de auto, conciseo detailed.Valores posibles: auto, concise, detailed |
No | |
| status | enum | Estado de la generación de respuesta. Uno de completed, failed, in_progress, cancelled, queuedo incomplete.Valores posibles: completed, failed, in_progress, cancelled, , queued, incomplete |
No | |
| temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
Yes | |
| text | object | Opciones de configuración para una respuesta de texto del modelo. Puede ser texto sin formato o datos JSON estructurados. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | object | Controla la herramienta a la que llama el modelo (si existe).none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje.auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas.required significa que el modelo debe llamar a una o varias herramientas. |
No | |
| └─ type | OpenAI.ToolChoiceObjectType | Indica que el modelo debe usar una herramienta integrada para generar una respuesta. | No | |
| tools | array | Una matriz de herramientas que el modelo puede llamar al generar una respuesta. Puede especificar qué herramienta usar estableciendo el tool_choice parámetro .Las dos categorías de herramientas que puede proporcionar son: - Herramientas integradas: herramientas proporcionadas por OpenAI que amplían las funcionalidades del modelo. |
No | |
| top_logprobs | integer | Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada. | No | |
| top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
Yes | |
| truncation | enum | Estrategia de truncamiento que se va a usar para la respuesta del modelo. - auto: si el contexto de esta respuesta y los anteriores supera el tamaño de la ventana de contexto del modelo, el modelo truncará la respuesta para ajustarse a la ventana de contexto quitando los elementos de entrada en medio de la conversación.- disabled (valor predeterminado): si una respuesta del modelo superará el tamaño de la ventana de contexto de un modelo, se producirá un error 400 en la solicitud.Valores posibles: auto, disabled |
No | |
| usage | OpenAI.ResponseUsage | Representa los detalles de uso de tokens, incluidos los tokens de entrada, los tokens de salida, un desglose de los tokens de salida y el total de tokens usados. | No | |
| user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | Yes |
AzureSearchChatDataSource
Representa una configuración del origen de datos que usará un recurso de Azure Search.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Información de parámetros para controlar el uso del origen de datos de Azure Search. | Yes | |
| └─ allow_partial_result | boolean | Si se establece en true, el sistema permitirá que se usen resultados de búsqueda parciales y se producirá un error en la solicitud si se produce un error en todas las consultas parciales. Si no se especifica o se especifica como false, se producirá un error en la solicitud si se produce un error en alguna consulta de búsqueda. | No | False |
| └─ authentication | object | No | ||
| └─ access_token | string | No | ||
| └─ key | string | No | ||
| └─ managed_identity_resource_id | string | No | ||
| └─ type | enum | Valores posibles: access_token |
No | |
| └─ embedding_dependency | object | Representa un origen de vectorización que realiza llamadas de servicio público en una implementación de modelo de inserción de OpenAI Azure. | No | |
| └─ authentication | AzureChatDataSourceApiKeyAuthenticationOptions o AzureChatDataSourceAccessTokenAuthenticationOptions | Mecanismo de autenticación que se va a usar con el origen de vectorización basado en punto de conexión. La autenticación de puntos de conexión admite los mecanismos de clave de API y token de acceso. |
No | |
| └─ deployment_name | string | Implementación del modelo de inserción que se va a usar para la vectorización. Esta implementación debe existir dentro del mismo Azure recurso de OpenAI que la implementación del modelo que se usa para las finalizaciones de chat. | No | |
| └─ dimensions | integer | Número de dimensiones que se van a solicitar en las incrustaciones. Solo se admite en los modelos "text-embeding-3" y versiones posteriores. |
No | |
| └─ endpoint | string | Especifica la dirección URL del punto de conexión de recurso desde la que se deben recuperar las incrustaciones. Debe estar en el formato de: https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. No se permite el parámetro de consulta api-version. |
No | |
| └─ type | enum | Identificador de tipo, siempre "integrado" para este tipo de origen de vectorización. Valores posibles: integrated |
No | |
| └─ endpoint | string | Ruta de acceso del punto de conexión absoluto para el recurso de búsqueda de Azure que se va a usar. | No | |
| └─ fields_mapping | object | Asignaciones de campos que se van a usar con el recurso Azure Search. | No | |
| └─ content_fields | array | Nombres de campos de índice que se deben tratar como contenido. | No | |
| └─ content_fields_separator | string | Patrón separador que deben usar los campos de contenido. | No | |
| └─ filepath_field | string | Nombre del campo de índice que se va a usar como ruta de acceso de archivo. | No | |
| └─ image_vector_fields | array | Nombres de campos que representan datos vectoriales de imagen. | No | |
| └─ title_field | string | Nombre del campo de índice que se va a usar como título. | No | |
| └─ url_field | string | Nombre del campo de índice que se va a usar como dirección URL. | No | |
| └─ vector_fields | array | Nombres de campos que representan datos vectoriales. | No | |
| └─ filter | string | Filtro que se va a aplicar a la búsqueda. | No | |
| └─ in_scope | boolean | Si las consultas deben restringirse al uso de los datos indexados. | No | |
| └─ include_contexts | array | Propiedades de contexto de salida que se van a incluir en la respuesta. De forma predeterminada, se solicitarán citas e intenciones. |
No | ['citations', 'intent'] |
| └─ index_name | string | Nombre del índice que se va a usar, tal como se especifica en el recurso Azure Search. | No | |
| └─ max_search_queries | integer | Número máximo de consultas reescritas que se deben enviar al proveedor de búsqueda para un único mensaje de usuario. De forma predeterminada, el sistema realizará una determinación automática. |
No | |
| └─ query_type | enum | Tipo de consulta para el recurso de búsqueda de Azure que se va a usar. Valores posibles: simple, semantic, vector, , vector_simple_hybrid, vector_semantic_hybrid |
No | |
| └─ semantic_configuration | string | Configuración semántica adicional para la consulta. | No | |
| └─ strictness | integer | La estricta configuración del filtrado de relevancia de búsqueda. Una mayor precisión aumentará la precisión, pero la menor recuperación de la respuesta. |
No | |
| └─ top_n_documents | integer | Número configurado de documentos que se van a presentar en la consulta. | No | |
| type | enum | Identificador de tipo discriminado, que siempre es "azure_search". Valores posibles: azure_search |
Yes |
AzureUserSecurityContext
El contexto de seguridad del usuario contiene varios parámetros que describen la propia aplicación y el usuario final que interactúa con la aplicación. Estos campos ayudan a los equipos de operaciones de seguridad a investigar y mitigar los incidentes de seguridad al proporcionar un enfoque integral para proteger las aplicaciones de inteligencia artificial. Learn más sobre la protección de aplicaciones de inteligencia artificial mediante Microsoft Defender para la nube.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| application_name | string | Nombre de la aplicación. La información personal confidencial no debe incluirse en este campo. | No | |
| end_user_id | string | Este identificador es el identificador de objeto de usuario de Microsoft Entra ID (anteriormente Azure Active Directory) que se usa para autenticar a los usuarios finales dentro de la aplicación de IA generativa. La información personal confidencial no debe incluirse en este campo. | No | |
| end_user_tenant_id | string | El identificador de inquilino Microsoft 365 al que pertenece el usuario final. Es necesario cuando la aplicación de IA generativa es multiinquilino. | No | |
| source_ip | string | Captura la dirección IP del cliente original. | No |
ChatCompletionMessageToolCallsItem
La herramienta llama a las llamadas generadas por el modelo, como las llamadas de función.
Matriz de: OpenAI.ChatCompletionMessageToolCall
CreateVideoGenerationRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| height | integer | Alto del vídeo. Se admiten las siguientes dimensiones: 480x480, 854x480, 720x720, 1280x720, 1080x1080 y 1920x1080 en orientación horizontal y vertical. | Yes | |
| model | string | Nombre de la implementación que se va a usar para esta solicitud. | Yes | |
| n_seconds | integer | Duración del trabajo de generación de vídeo. Debe estar entre 1 y 20 segundos. | No | 5 |
| n_variants | integer | Número de vídeos que se van a crear como variantes para este trabajo. Debe estar entre 1 y 5. Las dimensiones más pequeñas permiten más variantes. | No | 1 |
| prompt | string | Solicitud de este trabajo de generación de vídeo. | Yes | |
| width | integer | Ancho del vídeo. Se admiten las siguientes dimensiones: 480x480, 854x480, 720x720, 1280x720, 1080x1080 y 1920x1080 en orientación horizontal y vertical. | Yes |
CreateVideoGenerationWithMediaRequestMultiPart
Propiedades de una solicitud de trabajo de generación de vídeo con archivos multimedia.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| height | integer | Alto del vídeo. Se admiten las siguientes dimensiones: 480x480, 854x480, 720x720, 1280x720, 1080x1080 y 1920x1080 en orientación horizontal y vertical. | Yes | |
| inpaint_items | array | Elementos opcionales de inpainting para este trabajo de generación de vídeo. | No | |
| model | string | Nombre de la implementación que se va a usar para esta solicitud. | Yes | |
| n_seconds | integer | Duración del trabajo de generación de vídeo. Debe estar entre 1 y 20 segundos. | No | 5 |
| n_variants | integer | Número de vídeos que se van a crear como variantes para este trabajo. Debe estar entre 1 y 5. Las dimensiones más pequeñas permiten más variantes. | No | 1 |
| prompt | string | Solicitud de este trabajo de generación de vídeo. | Yes | |
| width | integer | Ancho del vídeo. Se admiten las siguientes dimensiones: 480x480, 854x480, 720x720, 1280x720, 1080x1080 y 1920x1080 en orientación horizontal y vertical. | Yes |
CropBounds
Límites de recorte para un elemento de inpaintación. Especifica el área del elemento multimedia que se debe usar para la inpaintación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bottom_fraction | number | Límite inferior del cuadro de recorte especificado como fracción del alto del elemento multimedia original. Debe estar comprendido entre 0,0 y 1,0. Use, por ejemplo, 0,5 para la mitad del alto del elemento multimedia original. | No | 1 |
| left_fraction | number | Límite izquierdo del cuadro de recorte especificado como fracción del ancho del elemento multimedia original. Debe estar comprendido entre 0,0 y 1,0. Use, por ejemplo, 0,5 para la mitad del ancho del elemento multimedia original. | No | 0 |
| right_fraction | number | Límite derecho del cuadro de recorte especificado como fracción del ancho del elemento multimedia original. Debe estar comprendido entre 0,0 y 1,0. Use, por ejemplo, 0,5 para la mitad del ancho del elemento multimedia original. | No | 1 |
| top_fraction | number | Límite superior del cuadro de recorte especificado como fracción del alto del elemento multimedia original. Debe estar comprendido entre 0,0 y 1,0. Use, por ejemplo, 0,5 para la mitad del alto del elemento multimedia original. | No | 0 |
ElasticsearchChatDataSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Información de parámetros para controlar el uso del origen de datos de Elasticsearch. | Yes | |
| └─ allow_partial_result | boolean | Si se establece en true, el sistema permitirá que se usen resultados de búsqueda parciales y se producirá un error en la solicitud si se produce un error en todas las consultas parciales. Si no se especifica o se especifica como false, se producirá un error en la solicitud si se produce un error en alguna consulta de búsqueda. | No | False |
| └─ authentication | object | No | ||
| └─ encoded_api_key | string | No | ||
| └─ key | string | No | ||
| └─ key_id | string | No | ||
| └─ type | enum | Valores posibles: encoded_api_key |
No | |
| └─ embedding_dependency | AzureChatDataSourceVectorizationSource | Representación de un origen de vectorización de datos que se puede usar como un recurso de inserción con un origen de datos. | No | |
| └─ endpoint | string | No | ||
| └─ fields_mapping | object | No | ||
| └─ content_fields | array | No | ||
| └─ content_fields_separator | string | No | ||
| └─ filepath_field | string | No | ||
| └─ title_field | string | No | ||
| └─ url_field | string | No | ||
| └─ vector_fields | array | No | ||
| └─ in_scope | boolean | Si las consultas deben restringirse al uso de los datos indexados. | No | |
| └─ include_contexts | array | Propiedades de contexto de salida que se van a incluir en la respuesta. De forma predeterminada, se solicitarán citas e intenciones. |
No | ['citations', 'intent'] |
| └─ index_name | string | No | ||
| └─ max_search_queries | integer | Número máximo de consultas reescritas que se deben enviar al proveedor de búsqueda para un único mensaje de usuario. De forma predeterminada, el sistema realizará una determinación automática. |
No | |
| └─ query_type | enum | Valores posibles: simple, vector |
No | |
| └─ strictness | integer | La estricta configuración del filtrado de relevancia de búsqueda. Una mayor precisión aumentará la precisión, pero la menor recuperación de la respuesta. |
No | |
| └─ top_n_documents | integer | Número configurado de documentos que se van a presentar en la consulta. | No | |
| type | enum | Identificador de tipo discriminado, que siempre es "elasticsearch". Valores posibles: elasticsearch |
Yes |
InpaintItem
Elemento de inpainting para un trabajo de generación de vídeo. Esto especifica el elemento multimedia que se debe usar para la inpainting en la generación de vídeo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| crop_bounds | object | Límites de recorte para un elemento de inpaintación. Especifica el área del elemento multimedia que se debe usar para la inpaintación. |
No | |
| └─ bottom_fraction | number | Límite inferior del cuadro de recorte especificado como fracción del alto del elemento multimedia original. Debe estar comprendido entre 0,0 y 1,0. Use, por ejemplo, 0,5 para la mitad del alto del elemento multimedia original. | No | 1 |
| └─ left_fraction | number | Límite izquierdo del cuadro de recorte especificado como fracción del ancho del elemento multimedia original. Debe estar comprendido entre 0,0 y 1,0. Use, por ejemplo, 0,5 para la mitad del ancho del elemento multimedia original. | No | 0 |
| └─ right_fraction | number | Límite derecho del cuadro de recorte especificado como fracción del ancho del elemento multimedia original. Debe estar comprendido entre 0,0 y 1,0. Use, por ejemplo, 0,5 para la mitad del ancho del elemento multimedia original. | No | 1 |
| └─ top_fraction | number | Límite superior del cuadro de recorte especificado como fracción del alto del elemento multimedia original. Debe estar comprendido entre 0,0 y 1,0. Use, por ejemplo, 0,5 para la mitad del alto del elemento multimedia original. | No | 0 |
| file_name | string | Nombre de archivo del elemento multimedia. Debe coincidir con el nombre de archivo de un archivo adjunto en esta solicitud. | Yes | |
| frame_index | integer | Índice de marco para este elemento multimedia. Especifica el fotograma inicial en el vídeo generado resultante para este elemento de inpainting. | Yes | 0 |
| type | object | Tipo del elemento de inpainting. | Yes |
JobStatus
Estado de un trabajo de generación de vídeo.
| Property | Value |
|---|---|
| Description | Estado de un trabajo de generación de vídeo. |
| Type | string |
| Values | preprocessingqueuedrunningprocessingcancelledsucceededfailed |
MediaItemType
Tipo del elemento de inpainting.
| Property | Value |
|---|---|
| Description | Tipo del elemento de inpainting. |
| Type | string |
| Values | image |
MongoDBChatDataSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Información de parámetros para controlar el uso del origen de datos de MongoDB. | Yes | |
| └─ allow_partial_result | boolean | Si se establece en true, el sistema permitirá que se usen resultados de búsqueda parciales y se producirá un error en la solicitud si se produce un error en todas las consultas parciales. Si no se especifica o se especifica como false, se producirá un error en la solicitud si se produce un error en alguna consulta de búsqueda. | No | False |
| └─ app_name | string | Nombre de la aplicación de MongoDB. | No | |
| └─ authentication | object | No | ||
| └─ password | string | No | ||
| └─ type | enum | Valores posibles: username_and_password |
No | |
| └─ username | string | No | ||
| └─ collection_name | string | Nombre de la colección de MongoDB. | No | |
| └─ database_name | string | Nombre de la base de datos de MongoDB. | No | |
| └─ embedding_dependency | object | Representa un origen de vectorización que realiza llamadas de servicio público en una implementación de modelo de inserción de OpenAI Azure. | No | |
| └─ authentication | AzureChatDataSourceApiKeyAuthenticationOptions o AzureChatDataSourceAccessTokenAuthenticationOptions | Mecanismo de autenticación que se va a usar con el origen de vectorización basado en punto de conexión. La autenticación de puntos de conexión admite los mecanismos de clave de API y token de acceso. |
No | |
| └─ deployment_name | string | Implementación del modelo de inserción que se va a usar para la vectorización. Esta implementación debe existir dentro del mismo Azure recurso de OpenAI que la implementación del modelo que se usa para las finalizaciones de chat. | No | |
| └─ dimensions | integer | Número de dimensiones que se van a solicitar en las incrustaciones. Solo se admite en los modelos "text-embeding-3" y versiones posteriores. |
No | |
| └─ endpoint | string | Especifica la dirección URL del punto de conexión de recurso desde la que se deben recuperar las incrustaciones. Debe estar en el formato de: https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. No se permite el parámetro de consulta api-version. |
No | |
| └─ type | enum | Identificador de tipo, siempre "deployment_name" para este tipo de origen de vectorización. Valores posibles: deployment_name |
No | |
| └─ endpoint | string | Nombre del punto de conexión del clúster de MongoDB. | No | |
| └─ fields_mapping | object | Asignaciones de campos que se aplicarán a los datos utilizados por el origen de datos de MongoDB. Tenga en cuenta que las asignaciones de campos vectoriales y de contenido son necesarias para MongoDB. |
No | |
| └─ content_fields | array | No | ||
| └─ content_fields_separator | string | No | ||
| └─ filepath_field | string | No | ||
| └─ title_field | string | No | ||
| └─ url_field | string | No | ||
| └─ vector_fields | array | No | ||
| └─ in_scope | boolean | Si las consultas deben restringirse al uso de los datos indexados. | No | |
| └─ include_contexts | array | Propiedades de contexto de salida que se van a incluir en la respuesta. De forma predeterminada, se solicitarán citas e intenciones. |
No | ['citations', 'intent'] |
| └─ index_name | string | Nombre del índice de MongoDB. | No | |
| └─ max_search_queries | integer | Número máximo de consultas reescritas que se deben enviar al proveedor de búsqueda para un único mensaje de usuario. De forma predeterminada, el sistema realizará una determinación automática. |
No | |
| └─ strictness | integer | La estricta configuración del filtrado de relevancia de búsqueda. Una mayor precisión aumentará la precisión, pero la menor recuperación de la respuesta. |
No | |
| └─ top_n_documents | integer | Número configurado de documentos que se van a presentar en la consulta. | No | |
| type | enum | Identificador de tipo discriminado, que siempre es "mongo_db". Valores posibles: mongo_db |
Yes |
OpenAI.Annotation
Discriminador para OpenAI.Annotation
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
file_citation |
OpenAI.AnnotationFileCitation |
url_citation |
OpenAI.AnnotationUrlCitation |
file_path |
OpenAI.AnnotationFilePath |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.AnnotationType | Yes |
OpenAI.AnnotationFileCitation
Cita a un archivo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Identificador del archivo. | Yes | |
| filename | string | Nombre de archivo del archivo citado. | Yes | |
| index | integer | Índice del archivo en la lista de archivos. | Yes | |
| type | enum | Tipo de la cita de archivo. Siempre file_citation.Valores posibles: file_citation |
Yes |
OpenAI.AnnotationFilePath
Ruta de acceso a un archivo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Identificador del archivo. | Yes | |
| index | integer | Índice del archivo en la lista de archivos. | Yes | |
| type | enum | Tipo de la ruta de acceso del archivo. Siempre file_path.Valores posibles: file_path |
Yes |
OpenAI.AnnotationType
| Property | Value |
|---|---|
| Type | string |
| Values | file_citationurl_citationfile_pathcontainer_file_citation |
OpenAI.AnnotationUrlCitation
Cita de un recurso web usado para generar una respuesta de modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Índice del último carácter de la cita url en el mensaje. | Yes | |
| start_index | integer | Índice del primer carácter de la cita url en el mensaje. | Yes | |
| title | string | Título del recurso web. | Yes | |
| type | enum | Tipo de la cita url. Siempre url_citation.Valores posibles: url_citation |
Yes | |
| url | string | Dirección URL del recurso web. | Yes |
OpenAI.ApproximateLocation
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| city | string | No | ||
| country | string | No | ||
| region | string | No | ||
| timezone | string | No | ||
| type | enum | Valores posibles: approximate |
Yes |
OpenAI.AudioResponseFormat
El formato de la salida, en una de estas opciones: json, text, srt, verbose_jsono vtt. Para gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribey gpt-4o-mini-transcribe-2025-12-15. El único formato admitido es json.
| Property | Value |
|---|---|
| Description | El formato de la salida, en una de estas opciones: json, text, srt, verbose_jsono vtt. Para gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribey gpt-4o-mini-transcribe-2025-12-15. El único formato admitido es json. |
| Type | string |
| Values | jsontextsrtverbose_jsonvtt |
OpenAI.AutoChunkingStrategyRequestParam
Estrategia predeterminada. Actualmente, esta estrategia usa un max_chunk_size_tokens de 800 y chunk_overlap_tokens de 400.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Siempre auto.Valores posibles: auto |
Yes |
OpenAI.ChatCompletionFunctionCallOption
Especificar una función determinada a través de {"name": "my_function"} obliga al modelo a llamar a esa función.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nombre de la función a la que se va a llamar. | Yes |
OpenAI.ChatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descripción de lo que hace la función, que usa el modelo para elegir cuándo y cómo llamar a la función. | No | |
| name | string | Nombre de la función a la que se va a llamar. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64. | Yes | |
| parameters | Los parámetros que aceptan las funciones, que se describen como un objeto de esquema JSON. Consulte la referencia de esquema JSON para obtener documentación sobre el formato. La omisión parameters define una función con una lista de parámetros vacía. |
No |
OpenAI.ChatCompletionMessageAudioChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | No | ||
| expires_at | integer | No | ||
| id | string | No | ||
| transcript | string | No |
OpenAI.ChatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Función a la que llamó el modelo. | Yes | |
| └─ arguments | string | Argumentos para llamar a la función con, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede que los parámetros no definidos por el esquema de función no se definan. Valide los argumentos del código antes de llamar a la función. | No | |
| └─ name | string | Nombre de la función a la que se va a llamar. | No | |
| id | string | Identificador de la llamada a la herramienta. | Yes | |
| type | enum | Tipo de la herramienta. Actualmente, solo function se admite.Valores posibles: function |
Yes |
OpenAI.ChatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ arguments | string | Argumentos para llamar a la función con, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede que los parámetros no definidos por el esquema de función no se definan. Valide los argumentos del código antes de llamar a la función. | No | |
| └─ name | string | Nombre de la función a la que se va a llamar. | No | |
| id | string | Identificador de la llamada a la herramienta. | No | |
| index | integer | Yes | ||
| type | enum | Tipo de la herramienta. Actualmente, solo function se admite.Valores posibles: function |
No |
OpenAI.ChatCompletionNamedToolChoice
Especifica una herramienta que debe usar el modelo. Use para forzar que el modelo llame a una función específica.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └─ name | string | Nombre de la función a la que se va a llamar. | No | |
| type | enum | Tipo de la herramienta. Actualmente, solo function se admite.Valores posibles: function |
Yes |
OpenAI.ChatCompletionRequestAssistantMessage
Mensajes enviados por el modelo en respuesta a los mensajes del usuario.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Datos sobre una respuesta de audio anterior del modelo. | No | |
| └─ id | string | Identificador único de una respuesta de audio anterior del modelo. | No | |
| content | string o array | No | ||
| function_call | object | En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo. |
No | |
| └─ arguments | string | No | ||
| └─ name | string | No | ||
| name | string | Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre los participantes del mismo rol. | No | |
| refusal | string | Mensaje de denegación por parte del asistente. | No | |
| role | enum | Rol del autor de mensajes, en este caso assistant.Valores posibles: assistant |
Yes | |
| tool_calls | ChatCompletionMessageToolCallsItem | La herramienta llama a las llamadas generadas por el modelo, como las llamadas de función. | No |
OpenAI.ChatCompletionRequestAssistantMessageContentPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Mensaje de denegación generado por el modelo. | Yes | |
| text | string | Contenido de texto. | Yes | |
| type | enum | Tipo del elemento de contenido. Valores posibles: refusal |
Yes |
OpenAI.ChatCompletionRequestDeveloperMessage
Instrucciones proporcionadas por el desarrollador que el modelo debe seguir, independientemente de los mensajes enviados por el usuario. Con los modelos o1 y versiones más recientes, developer los mensajes reemplazan los mensajes anteriores system .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string o array | Yes | ||
| name | string | Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre los participantes del mismo rol. | No | |
| role | enum | Rol del autor de mensajes, en este caso developer.Valores posibles: developer |
Yes |
OpenAI.ChatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenido del mensaje de función. | Yes | |
| name | string | Nombre de la función a la que se va a llamar. | Yes | |
| role | enum | Rol del autor de mensajes, en este caso function.Valores posibles: function |
Yes |
OpenAI.ChatCompletionRequestMessage
Discriminador para OpenAI.ChatCompletionRequestMessage
Este componente usa la propiedad role para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
system |
OpenAI.ChatCompletionRequestSystemMessage |
developer |
OpenAI.ChatCompletionRequestDeveloperMessage |
user |
OpenAI.ChatCompletionRequestUserMessage |
assistant |
OpenAI.ChatCompletionRequestAssistantMessage |
tool |
OpenAI.ChatCompletionRequestToolMessage |
function |
OpenAI.ChatCompletionRequestFunctionMessage |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string o array | No | ||
| role | object | Rol del autor de un mensaje | Yes |
OpenAI.ChatCompletionRequestMessageContentPart
Discriminador para OpenAI.ChatCompletionRequestMessageContentPart
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ChatCompletionRequestMessageContentPartType | Yes |
OpenAI.ChatCompletionRequestMessageContentPartAudio
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio | object | Yes | ||
| └─ data | string | Datos de audio codificados en Base64. | No | |
| └─ format | enum | Formato de los datos de audio codificados. Actualmente admite "wav" y "mp3". Valores posibles: wav, mp3 |
No | |
| type | enum | Tipo del elemento de contenido. Siempre input_audio.Valores posibles: input_audio |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartFile
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | object | Yes | ||
| └─ file_data | string | Los datos del archivo codificados en base64, que se usan al pasar el archivo al modelo como una cadena. | No | |
| └─ file_id | string | Identificador de un archivo cargado que se va a usar como entrada. | No | |
| └─ filename | string | Nombre del archivo, que se usa al pasar el archivo al modelo como una cadena. | No | |
| type | enum | Tipo del elemento de contenido. Siempre file.Valores posibles: file |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_url | object | Yes | ||
| └─ detail | enum | Especifica el nivel de detalle de la imagen. Valores posibles: auto, low, high |
No | |
| └─ url | string | Una dirección URL de la imagen o los datos de imagen codificados en base64. | No | |
| type | enum | Tipo del elemento de contenido. Valores posibles: image_url |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Mensaje de denegación generado por el modelo. | Yes | |
| type | enum | Tipo del elemento de contenido. Valores posibles: refusal |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Contenido de texto. | Yes | |
| type | enum | Tipo del elemento de contenido. Valores posibles: text |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartType
| Property | Value |
|---|---|
| Type | string |
| Values | textfileinput_audioimage_urlrefusal |
OpenAI.ChatCompletionRequestSystemMessage
Instrucciones proporcionadas por el desarrollador que el modelo debe seguir, independientemente de los mensajes enviados por el usuario. Con los modelos o1 y versiones más recientes, use developer mensajes para este propósito en su lugar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string o array | Yes | ||
| name | string | Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre los participantes del mismo rol. | No | |
| role | enum | Rol del autor de mensajes, en este caso system.Valores posibles: system |
Yes |
OpenAI.ChatCompletionRequestSystemMessageContentPart
References: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string o array | Yes | ||
| role | enum | Rol del autor de mensajes, en este caso tool.Valores posibles: tool |
Yes | |
| tool_call_id | string | Llamada a la herramienta a la que responde este mensaje. | Yes |
OpenAI.ChatCompletionRequestToolMessageContentPart
References: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestUserMessage
Mensajes enviados por un usuario final, que contienen mensajes o información de contexto adicional.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string o array | Yes | ||
| name | string | Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre los participantes del mismo rol. | No | |
| role | enum | Rol del autor de mensajes, en este caso user.Valores posibles: user |
Yes |
OpenAI.ChatCompletionRequestUserMessageContentPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | object | Yes | ||
| └─ file_data | string | Los datos del archivo codificados en base64, que se usan al pasar el archivo al modelo como una cadena. | No | |
| └─ file_id | string | Identificador de un archivo cargado que se va a usar como entrada. | No | |
| └─ filename | string | Nombre del archivo, que se usa al pasar el archivo al modelo como una cadena. | No | |
| image_url | object | Yes | ||
| └─ detail | enum | Especifica el nivel de detalle de la imagen. Valores posibles: auto, low, high |
No | |
| └─ url | string | Una dirección URL de la imagen o los datos de imagen codificados en base64. | No | |
| input_audio | object | Yes | ||
| └─ data | string | Datos de audio codificados en Base64. | No | |
| └─ format | enum | Formato de los datos de audio codificados. Actualmente admite "wav" y "mp3". Valores posibles: wav, mp3 |
No | |
| text | string | Contenido de texto. | Yes | |
| type | enum | Tipo del elemento de contenido. Siempre file.Valores posibles: file |
Yes |
OpenAI.ChatCompletionRole
Rol del autor de un mensaje
| Property | Value |
|---|---|
| Description | Rol del autor de un mensaje |
| Type | string |
| Values | systemdeveloperuserassistanttoolfunction |
OpenAI.ChatCompletionStreamOptions
Opciones para la respuesta de streaming. Establézcalo solo cuando establezca stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Si se establece, se transmitirá un fragmento adicional antes del data: [DONE] mensaje. El usage campo de este fragmento muestra las estadísticas de uso del token para toda la solicitud y el choices campo siempre será una matriz vacía.Todos los demás fragmentos también incluirán un usage campo, pero con un valor NULL.
NOTA: Si se interrumpe la secuencia, es posible que no reciba el fragmento de uso final que contiene el uso total del token para la solicitud. |
No |
OpenAI.ChatCompletionStreamResponseDelta
Una diferencia de finalización del chat generada por respuestas del modelo transmitido.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | No | ||
| └─ data | string | No | ||
| └─ expires_at | integer | No | ||
| └─ id | string | No | ||
| └─ transcript | string | No | ||
| content | string | Contenido del mensaje de fragmento. | No | |
| function_call | object | En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo. |
No | |
| └─ arguments | string | No | ||
| └─ name | string | No | ||
| refusal | string | Mensaje de denegación generado por el modelo. | No | |
| role | object | Rol del autor de un mensaje | No | |
| tool_calls | array | No |
OpenAI.ChatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Lista de enteros que representan la representación de bytes UTF-8 del token. Resulta útil en instancias en las que los caracteres se representan mediante varios tokens y sus representaciones de bytes deben combinarse para generar la representación de texto correcta. Puede ser null si no hay ninguna representación de bytes para el token. |
Yes | |
| logprob | number | Probabilidad de registro de este token, si está dentro de los 20 tokens más probables. De lo contrario, el valor -9999.0 se usa para indicar que el token es muy poco probable. |
Yes | |
| token | string | The token. | Yes | |
| top_logprobs | array | Lista de los tokens más probables y su probabilidad de registro, en esta posición del token. En raras ocasiones, puede haber menos del número de devueltos solicitados top_logprobs . |
Yes |
OpenAI.ChatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | OpenAI.FunctionObject | Yes | ||
| type | enum | Tipo de la herramienta. Actualmente, solo function se admite.Valores posibles: function |
Yes |
OpenAI.ChatCompletionToolChoiceOption
Controla la herramienta a la que llama el modelo (si existe).
none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas.
required significa que el modelo debe llamar a una o varias herramientas.
Especificar una herramienta determinada a través de {"type": "function", "function": {"name": "my_function"}} fuerza al modelo a llamar a esa herramienta.
none es el valor predeterminado cuando no hay herramientas presentes.
auto es el valor predeterminado si las herramientas están presentes.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └─ name | string | Nombre de la función a la que se va a llamar. | No | |
| type | enum | Tipo de la herramienta. Actualmente, solo function se admite.Valores posibles: function |
Yes |
OpenAI.ChatOutputPrediction
Representación base de la salida predicha de un modelo.
Discriminador para OpenAI.ChatOutputPrediction
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
content |
OpenAI.ChatOutputPredictionContent |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ChatOutputPredictionType | Yes |
OpenAI.ChatOutputPredictionContent
Contenido de salida predicho estático, como el contenido de un archivo de texto que se está regenerando.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string o array | Yes | ||
| type | enum | Tipo del contenido previsto que desea proporcionar. Este tipo es actualmente siempre content.Valores posibles: content |
Yes |
OpenAI.ChatOutputPredictionType
| Property | Value |
|---|---|
| Type | string |
| Values | content |
OpenAI.ChunkingStrategyRequestParam
Estrategia de fragmentación usada para fragmentar los archivos. Si no se establece, usará la auto estrategia.
Discriminador para OpenAI.ChunkingStrategyRequestParam
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
static |
OpenAI.StaticChunkingStrategyRequestParam |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo de estrategia de fragmentación. Valores posibles: auto, static |
Yes |
OpenAI.ChunkingStrategyResponseParam
Discriminador para OpenAI.ChunkingStrategyResponseParam
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
other |
OpenAI.OtherChunkingStrategyResponseParam |
static |
OpenAI.StaticChunkingStrategyResponseParam |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valores posibles: static, other |
Yes |
OpenAI.CodeInterpreterOutput
Discriminador para OpenAI.CodeInterpreterOutput
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
image |
OpenAI.CodeInterpreterOutputImage |
logs |
OpenAI.CodeInterpreterOutputLogs |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.CodeInterpreterOutputType | Yes |
OpenAI.CodeInterpreterOutputImage
Salida de la imagen del intérprete de código.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo de la salida. Always 'image'. Valores posibles: image |
Yes | |
| url | string | Dirección URL de la salida de la imagen del intérprete de código. | Yes |
OpenAI.CodeInterpreterOutputLogs
La salida de registros del intérprete de código.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | La salida de registros del intérprete de código. | Yes | |
| type | enum | Tipo de la salida. Always 'logs'. Valores posibles: logs |
Yes |
OpenAI.CodeInterpreterOutputType
| Property | Value |
|---|---|
| Type | string |
| Values | logsimage |
OpenAI.CodeInterpreterTool
Herramienta que ejecuta Python código para ayudar a generar una respuesta a un mensaje.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| container | object | Configuración de un contenedor de intérpretes de código. Opcionalmente, especifique los identificadores de los archivos en los que ejecutar el código. | Yes | |
| └─ file_ids | array | Lista opcional de archivos cargados para que esté disponible para el código. | No | |
| └─ type | enum | Siempre auto.Valores posibles: auto |
No | |
| type | enum | Tipo de la herramienta de intérprete de código. Siempre code_interpreter.Valores posibles: code_interpreter |
Yes |
OpenAI.CodeInterpreterToolAuto
Configuración de un contenedor de intérpretes de código. Opcionalmente, especifique los identificadores de los archivos en los que ejecutar el código.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_ids | array | Lista opcional de archivos cargados para que esté disponible para el código. | No | |
| type | enum | Siempre auto.Valores posibles: auto |
Yes |
OpenAI.CodeInterpreterToolCallItemParam
Una llamada de herramienta para ejecutar código.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Código que se va a ejecutar o null si no está disponible. | Yes | |
| container_id | string | Identificador del contenedor usado para ejecutar el código. | Yes | |
| outputs | array | Salidas generadas por el intérprete de código, como registros o imágenes. Puede ser NULL si no hay ninguna salida disponible. |
Yes | |
| type | enum | Valores posibles: code_interpreter_call |
Yes |
OpenAI.CodeInterpreterToolCallItemResource
Una llamada de herramienta para ejecutar código.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Código que se va a ejecutar o null si no está disponible. | Yes | |
| container_id | string | Identificador del contenedor usado para ejecutar el código. | Yes | |
| outputs | array | Salidas generadas por el intérprete de código, como registros o imágenes. Puede ser NULL si no hay ninguna salida disponible. |
Yes | |
| status | enum | Valores posibles: in_progress, completed, incomplete, , interpreting, failed |
Yes | |
| type | enum | Valores posibles: code_interpreter_call |
Yes |
OpenAI.ComparisonFilter
Filtro usado para comparar una clave de atributo especificada con un valor determinado mediante una operación de comparación definida.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Clave que se va a comparar con el valor. | Yes | |
| type | enum | Especifica el operador de comparación: eq, ne, gt, gte, lt, . lte- eq: es igual a- ne: no es igual a- gt: mayor que- gte: mayor o igual que- lt: menor que- lte: menor o igual que .Valores posibles: eq, ne, gt, gte, , lt, lte |
Yes | |
| value | string o number o boolean | Yes |
OpenAI.CompletionUsage
Estadísticas de uso de la solicitud de finalización.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Número de tokens en la finalización generada. | Yes | 0 |
| completion_tokens_details | object | Desglose de los tokens usados en una finalización. | No | |
| └─ accepted_prediction_tokens | integer | Cuando se usan salidas de predicción, el número de tokens de la predicción que apareció en la finalización. | No | 0 |
| └─ audio_tokens | integer | Tokens de entrada de audio generados por el modelo. | No | 0 |
| └─ reasoning_tokens | integer | Tokens generados por el modelo para el razonamiento. | No | 0 |
| └─ rejected_prediction_tokens | integer | Cuando se usan salidas de predicción, el número de tokens de la predicción que no aparecen en la finalización. Sin embargo, al igual que los tokens de razonamiento, estos tokens todavía se cuentan en los tokens de finalización total con fines de facturación, salida y límites de ventana de contexto. | No | 0 |
| prompt_tokens | integer | Número de tokens en el símbolo del sistema. | Yes | 0 |
| prompt_tokens_details | object | Desglose de los tokens usados en el símbolo del sistema. | No | |
| └─ audio_tokens | integer | Tokens de entrada de audio presentes en el símbolo del sistema. | No | 0 |
| └─ cached_tokens | integer | Tokens almacenados en caché presentes en el símbolo del sistema. | No | 0 |
| total_tokens | integer | Número total de tokens usados en la solicitud (solicitud + finalización). | Yes | 0 |
OpenAI.CompoundFilter
Combine varios filtros mediante and o or.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Matriz de filtros que se van a combinar. Los elementos pueden ser ComparisonFilter o CompoundFilter. |
Yes | |
| type | enum | Tipo de operación: and o or.Valores posibles: and, or |
Yes |
OpenAI.ComputerAction
Discriminador para OpenAI.ComputerAction
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
click |
OpenAI.ComputerActionClick |
double_click |
OpenAI.ComputerActionDoubleClick |
drag |
OpenAI.ComputerActionDrag |
move |
OpenAI.ComputerActionMove |
screenshot |
OpenAI.ComputerActionScreenshot |
scroll |
OpenAI.ComputerActionScroll |
type |
OpenAI.ComputerActionTypeKeys |
wait |
OpenAI.ComputerActionWait |
keypress |
OpenAI.ComputerActionKeyPress |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ComputerActionType | Yes |
OpenAI.ComputerActionClick
Una acción de clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| button | enum | Indica qué botón del mouse se ha presionado durante el clic. Uno de left, right, wheel, backo forward.Valores posibles: left, right, wheel, , back, forward |
Yes | |
| type | enum | Especifica el tipo de evento. Para una acción de clic, esta propiedad siempre se establece clicken .Valores posibles: click |
Yes | |
| x | integer | Coordenada x donde se produjo el clic. | Yes | |
| y | integer | Coordenada y donde se produjo el clic. | Yes |
OpenAI.ComputerActionDoubleClick
Una acción de doble clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Especifica el tipo de evento. Para una acción de doble clic, esta propiedad siempre se establece en double_click.Valores posibles: double_click |
Yes | |
| x | integer | Coordenada x donde se produjo el doble clic. | Yes | |
| y | integer | Coordenada y donde se produjo el doble clic. | Yes |
OpenAI.ComputerActionDrag
Una acción de arrastre.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| path | array | Matriz de coordenadas que representa la ruta de acceso de la acción de arrastre. Las coordenadas aparecerán como una matriz de objetos, por ejemplo,{ x: 100, y: 200 }, { x: 200, y: 300 } |
Yes | |
| type | enum | Especifica el tipo de evento. Para una acción de arrastre, esta propiedad siempre se establece en drag.Valores posibles: drag |
Yes |
OpenAI.ComputerActionKeyPress
Una colección de teclas presiona el modelo que desea realizar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| keys | array | La combinación de teclas que solicita que se presione el modelo. Se trata de una matriz de cadenas, cada una que representa una clave. | Yes | |
| type | enum | Especifica el tipo de evento. Para una acción de keypress, esta propiedad siempre se establece en keypress.Valores posibles: keypress |
Yes |
OpenAI.ComputerActionMove
Una acción de movimiento del mouse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Especifica el tipo de evento. Para una acción de movimiento, esta propiedad siempre se establece en move.Valores posibles: move |
Yes | |
| x | integer | Coordenada x a la que se va a mover. | Yes | |
| y | integer | Coordenada y a la que se va a mover. | Yes |
OpenAI.ComputerActionScreenshot
Acción de captura de pantalla.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Especifica el tipo de evento. Para una acción de captura de pantalla, esta propiedad siempre se establece en screenshot.Valores posibles: screenshot |
Yes |
OpenAI.ComputerActionScroll
Una acción de desplazamiento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | integer | Distancia de desplazamiento horizontal. | Yes | |
| scroll_y | integer | Distancia de desplazamiento vertical. | Yes | |
| type | enum | Especifica el tipo de evento. Para una acción de desplazamiento, esta propiedad siempre se establece en scroll.Valores posibles: scroll |
Yes | |
| x | integer | Coordenada x donde se produjo el desplazamiento. | Yes | |
| y | integer | Coordenada y donde se produjo el desplazamiento. | Yes |
OpenAI.ComputerActionType
| Property | Value |
|---|---|
| Type | string |
| Values | screenshotclickdouble_clickscrolltypewaitkeypressdragmove |
OpenAI.ComputerActionTypeKeys
Acción para escribir texto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Texto que se va a escribir. | Yes | |
| type | enum | Especifica el tipo de evento. Para una acción de tipo, esta propiedad siempre se establece en type.Valores posibles: type |
Yes |
OpenAI.ComputerActionWait
Una acción de espera.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Especifica el tipo de evento. Para una acción de espera, esta propiedad siempre se establece en wait.Valores posibles: wait |
Yes |
OpenAI.ComputerToolCallItemParam
Una llamada de herramienta a una herramienta de uso de equipo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | OpenAI.ComputerAction | Yes | ||
| call_id | string | Identificador que se usa al responder a la llamada de herramienta con salida. | Yes | |
| pending_safety_checks | array | Las comprobaciones de seguridad pendientes para la llamada al equipo. | Yes | |
| type | enum | Valores posibles: computer_call |
Yes |
OpenAI.ComputerToolCallItemResource
Una llamada de herramienta a una herramienta de uso de equipo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | OpenAI.ComputerAction | Yes | ||
| call_id | string | Identificador que se usa al responder a la llamada de herramienta con salida. | Yes | |
| pending_safety_checks | array | Las comprobaciones de seguridad pendientes para la llamada al equipo. | Yes | |
| status | enum | Estado del elemento. Uno de in_progress, completedo incomplete. Se rellena cuando los elementos se devuelven a través de la API.Valores posibles: in_progress, completed, incomplete |
Yes | |
| type | enum | Valores posibles: computer_call |
Yes |
OpenAI.ComputerToolCallOutputItemOutput
Discriminador para OpenAI.ComputerToolCallOutputItemOutput
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
computer_screenshot |
OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ComputerToolCallOutputItemOutputType | Imagen de captura de pantalla del equipo que se usa con la herramienta de uso del equipo. | Yes |
OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | No | ||
| image_url | string | No | ||
| type | enum | Valores posibles: computer_screenshot |
Yes |
OpenAI.ComputerToolCallOutputItemOutputType
Imagen de captura de pantalla del equipo que se usa con la herramienta de uso del equipo.
| Property | Value |
|---|---|
| Description | Imagen de captura de pantalla del equipo que se usa con la herramienta de uso del equipo. |
| Type | string |
| Values | computer_screenshot |
OpenAI.ComputerToolCallOutputItemParam
Salida de una llamada a una herramienta de equipo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Las comprobaciones de seguridad notificadas por la API que el desarrollador ha confirmado. | No | |
| call_id | string | Identificador de la llamada a la herramienta de equipo que generó la salida. | Yes | |
| output | OpenAI.ComputerToolCallOutputItemOutput | Yes | ||
| type | enum | Valores posibles: computer_call_output |
Yes |
OpenAI.ComputerToolCallOutputItemResource
Salida de una llamada a una herramienta de equipo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Las comprobaciones de seguridad notificadas por la API que el desarrollador ha confirmado. | No | |
| call_id | string | Identificador de la llamada a la herramienta de equipo que generó la salida. | Yes | |
| output | OpenAI.ComputerToolCallOutputItemOutput | Yes | ||
| status | enum | Estado del elemento. Uno de in_progress, completedo incomplete. Se rellena cuando los elementos se devuelven a través de la API.Valores posibles: in_progress, completed, incomplete |
Yes | |
| type | enum | Valores posibles: computer_call_output |
Yes |
OpenAI.ComputerToolCallSafetyCheck
Una comprobación de seguridad pendiente para la llamada del equipo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Tipo de comprobación de seguridad pendiente. | Yes | |
| id | string | Identificador de la comprobación de seguridad pendiente. | Yes | |
| message | string | Detalles sobre la comprobación de seguridad pendiente. | Yes |
OpenAI.ComputerUsePreviewTool
Herramienta que controla un equipo virtual.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| display_height | integer | Alto de la pantalla del equipo. | Yes | |
| display_width | integer | Ancho de la pantalla del equipo. | Yes | |
| environment | enum | Tipo de entorno de equipo que se va a controlar. Valores posibles: windows, mac, linux, , ubuntu, browser |
Yes | |
| type | enum | Tipo de la herramienta de uso del equipo. Siempre computer_use_preview.Valores posibles: computer_use_preview |
Yes |
OpenAI.Coordinate
Un par de coordenadas x/y, por ejemplo { x: 100, y: 200 }, .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| x | integer | The x-coordinate. | Yes | |
| y | integer | The y-coordinate. | Yes |
OpenAI.CreateEmbeddingResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Lista de incrustaciones generadas por el modelo. | Yes | |
| model | string | Nombre del modelo usado para generar la inserción. | Yes | |
| object | enum | Tipo de objeto, que siempre es "list". Valores posibles: list |
Yes | |
| usage | object | Información de uso de la solicitud. | Yes | |
| └─ prompt_tokens | integer | Número de tokens usados por el símbolo del sistema. | No | |
| └─ total_tokens | integer | Número total de tokens usados por la solicitud. | No |
OpenAI.CreateEvalItem
Mensaje de chat que constituye el mensaje o el contexto. Puede incluir referencias de variables al item espacio de nombres, es decir, {{item.name}}.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string o OpenAI.EvalItemContent | Entradas de texto en el modelo: puede contener cadenas de plantilla. | Yes | |
| role | enum | Rol de la entrada del mensaje. Uno de user, assistant, systemo developer.Valores posibles: user, assistant, system, developer |
Yes | |
| type | enum | Tipo de la entrada del mensaje. Siempre message.Valores posibles: message |
No |
OpenAI.CreateEvalRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data_source | object | Yes | ||
| └─ type | OpenAI.EvalRunDataSourceType | No | ||
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| name | string | Nombre de la ejecución. | No |
OpenAI.CreateFineTuningJobRequest
Valid models:
babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hyperparameters | object | Hiperparámetros usados para el trabajo de ajuste preciso. Este valor ahora está en desuso en favor de methody debe pasarse bajo el method parámetro . |
No | |
| └─ batch_size | enum | Valores posibles: auto |
No | |
| └─ learning_rate_multiplier | enum | Valores posibles: auto |
No | |
| └─ n_epochs | enum | Valores posibles: auto |
No | |
| integrations | array | Lista de integraciones que se habilitarán para el trabajo de ajuste preciso. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| method | OpenAI.FineTuneMethod | Método que se usa para ajustar. | No | |
| model | string (consulte los modelos válidos a continuación) | Nombre del modelo que se va a ajustar. | Yes | |
| seed | integer | La inicialización controla la reproducibilidad del trabajo. Pasar los mismos parámetros de inicialización y trabajo debe generar los mismos resultados, pero puede diferir en raras ocasiones. Si no se especifica un valor de inicialización, se generará uno automáticamente. |
No | |
| suffix | string | Cadena de hasta 64 caracteres que se agregarán al nombre del modelo ajustado. Por ejemplo, un suffix de "custom-model-name" produciría un nombre de modelo como ft:gpt-4o-mini:openai:custom-model-name:7p4lURel. |
No | None |
| training_file | string | Identificador de un archivo cargado que contiene datos de entrenamiento. El conjunto de datos debe tener el formato JSONL. Además, debe cargar el archivo con el propósito fine-tune.El contenido del archivo debe diferir en función de si el modelo usa el formato de chat, finalizaciones o si el método de ajuste utiliza el formato de preferencia. |
Yes | |
| validation_file | string | Identificador de un archivo cargado que contiene datos de validación. Si proporciona este archivo, los datos se usan para generar métricas de validación periódicamente durante el ajuste preciso. Estas métricas se pueden ver en el archivo de resultados de ajuste preciso. Los mismos datos no deben estar presentes en los archivos de entrenamiento y validación. El conjunto de datos debe tener el formato JSONL. Debe cargar el archivo con el propósito fine-tune. |
No |
OpenAI.CreateFineTuningJobRequestIntegration
Discriminador para OpenAI.CreateFineTuningJobRequestIntegration
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
wandb |
OpenAI.CreateFineTuningJobRequestWandbIntegration |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string (consulte los modelos válidos a continuación) | Yes |
OpenAI.CreateFineTuningJobRequestWandbIntegration
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valores posibles: wandb |
Yes | |
| wandb | object | Yes | ||
| └─ entity | string | No | ||
| └─ name | string | No | ||
| └─ project | string | No | ||
| └─ tags | array | No |
OpenAI.CreateVectorStoreFileBatchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres, booleanos o números. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Estrategia de fragmentación usada para fragmentar los archivos. Si no se establece, usará la auto estrategia. |
No | |
| file_ids | array | Lista de identificadores de archivo que debe usar el almacén de vectores. Útil para herramientas como file_search que pueden tener acceso a archivos. |
Yes |
OpenAI.CreateVectorStoreFileRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres, booleanos o números. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Estrategia de fragmentación usada para fragmentar los archivos. Si no se establece, usará la auto estrategia. |
No | |
| file_id | string | Identificador de archivo que debe usar el almacén de vectores. Útil para herramientas como file_search que pueden tener acceso a archivos. |
Yes |
OpenAI.CreateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | object | Estrategia predeterminada. Actualmente, esta estrategia usa un max_chunk_size_tokens de 800 y chunk_overlap_tokens de 400. |
No | |
| └─ static | OpenAI.StaticChunkingStrategy | No | ||
| └─ type | enum | Siempre static.Valores posibles: static |
No | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Directiva de expiración de un almacén de vectores. | No | |
| file_ids | array | Lista de identificadores de archivo que debe usar el almacén de vectores. Útil para herramientas como file_search que pueden tener acceso a archivos. |
No | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| name | string | Nombre del almacén de vectores. | No |
OpenAI.DeleteFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | enum | Valores posibles: file |
Yes |
OpenAI.DeleteVectorStoreFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | enum | Valores posibles: vector_store.file.deleted |
Yes |
OpenAI.DeleteVectorStoreResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | enum | Valores posibles: vector_store.deleted |
Yes |
OpenAI.Embedding
Representa un vector de inserción devuelto por el punto de conexión de inserción.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| embedding | matriz o cadena | Yes | ||
| index | integer | Índice de la inserción en la lista de incrustaciones. | Yes | |
| object | enum | Tipo de objeto, que siempre es "incrustación". Valores posibles: embedding |
Yes |
OpenAI.Eval
Objeto Eval con una configuración de origen de datos y criterios de prueba. Una instancia de Eval representa una tarea que se va a realizar para la integración de LLM. Like:
- Mejora de la calidad de mi bot de chat
- Ver cómo mi bot de chat controla el soporte técnico al cliente
- Compruebe si o4-mini es mejor en mi caso que gpt-4o
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Marca de tiempo de Unix (en segundos) para cuando se creó la eval. | Yes | |
| data_source_config | object | Yes | ||
| └─ type | OpenAI.EvalDataSourceConfigType | No | ||
| id | string | Identificador único de la evaluación. | Yes | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
Yes | |
| name | string | Nombre de la evaluación. | Yes | |
| object | enum | Tipo de objeto. Valores posibles: eval |
Yes | |
| testing_criteria | array | Lista de criterios de prueba. | Yes | None |
OpenAI.EvalApiError
Objeto que representa una respuesta de error de la API de Eval.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Código de error. | Yes | |
| message | string | Mensaje de error. | Yes |
OpenAI.EvalCompletionsRunDataSourceParams
Objeto CompletionsRunDataSource que describe una configuración de muestreo del modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_messages | object | No | ||
| └─ item_reference | string | Referencia a una variable en el espacio de item nombres. Ie, "item.input_trajectory" |
No | |
| └─ template | array | Una lista de mensajes de chat que forman el mensaje o el contexto. Puede incluir referencias de variables al item espacio de nombres, es decir, {{item.name}}. |
No | |
| └─ type | enum | Tipo de mensajes de entrada. Siempre item_reference.Valores posibles: item_reference |
No | |
| model | string | Nombre del modelo que se va a usar para generar finalizaciones (por ejemplo, "o3-mini"). | No | |
| sampling_params | AzureEvalAPICompletionsSamplingParams | No | ||
| source | object | Yes | ||
| └─ content | array | Contenido del archivo jsonl. | No | |
| └─ created_after | integer | Marca de tiempo opcional de Unix para filtrar los elementos creados después de este tiempo. | No | |
| └─ created_before | integer | Marca de tiempo opcional de Unix para filtrar los elementos creados antes de esta hora. | No | |
| └─ id | string | Identificador del archivo. | No | |
| └─ limit | integer | Número máximo opcional de elementos que se van a devolver. | No | |
| └─ metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| └─ model | string | Un modelo opcional para filtrar por (por ejemplo, "gpt-4o"). | No | |
| └─ type | enum | Tipo de origen. Siempre stored_completions.Valores posibles: stored_completions |
No | |
| type | enum | Tipo de origen de datos de ejecución. Siempre completions.Valores posibles: completions |
Yes |
OpenAI.EvalCustomDataSourceConfigParams
Objeto CustomDataSourceConfig que define el esquema del origen de datos usado para las ejecuciones de evaluación. Este esquema se usa para definir la forma de los datos que serán:
- Se usa para definir los criterios de prueba y
- Qué datos son necesarios al crear una ejecución
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_sample_schema | boolean | Si la evaluación debe esperar que rellene el espacio de nombres de ejemplo (es decir, mediante la generación de respuestas fuera del origen de datos). | No | False |
| item_schema | object | Esquema json para cada fila del origen de datos. | Yes | |
| type | enum | Tipo de origen de datos. Siempre custom.Valores posibles: custom |
Yes |
OpenAI.EvalCustomDataSourceConfigResource
CustomDataSourceConfig que especifica el esquema de los item espacios de nombres y opcionalmente sample .
El esquema de respuesta define la forma de los datos que serán:
- Se usa para definir los criterios de prueba y
- Qué datos son necesarios al crear una ejecución
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| schema | object | Esquema json para los elementos de origen de datos de ejecución. Obtenga información sobre cómo compilar esquemas JSON aquí. |
Yes | |
| type | enum | Tipo de origen de datos. Siempre custom.Valores posibles: custom |
Yes |
OpenAI.EvalDataSourceConfigParams
Discriminador para OpenAI.EvalDataSourceConfigParams
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
custom |
OpenAI.EvalCustomDataSourceConfigParams |
logs |
OpenAI.EvalLogsDataSourceConfigParams |
stored_completions |
OpenAI.EvalStoredCompletionsDataSourceConfigParams |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalDataSourceConfigType | Yes |
OpenAI.EvalDataSourceConfigResource
Discriminador para OpenAI.EvalDataSourceConfigResource
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
custom |
OpenAI.EvalCustomDataSourceConfigResource |
stored_completions |
OpenAI.EvalStoredCompletionsDataSourceConfigResource |
logs |
OpenAI.EvalLogsDataSourceConfigResource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalDataSourceConfigType | Yes |
OpenAI.EvalDataSourceConfigType
| Property | Value |
|---|---|
| Type | string |
| Values | customlogsstored_completions |
OpenAI.EvalGraderLabelModelParams
Objeto LabelModelGrader que usa un modelo para asignar etiquetas a cada elemento de la evaluación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Una lista de mensajes de chat que forman el mensaje o el contexto. Puede incluir referencias de variables al item espacio de nombres, es decir, {{item.name}}. |
Yes | |
| labels | array | Etiquetas que se van a clasificar en cada elemento de la evaluación. | Yes | |
| model | string | Modelo que se va a usar para la evaluación. Debe admitir salidas estructuradas. | Yes | |
| name | string | Nombre del calificador. | Yes | |
| passing_labels | array | Etiquetas que indican un resultado de paso. Debe ser un subconjunto de etiquetas. | Yes | |
| type | enum | Tipo de objeto, que siempre label_modeles .Valores posibles: label_model |
Yes |
OpenAI.EvalGraderLabelModelResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Yes | ||
| labels | array | Etiquetas que se van a asignar a cada elemento de la evaluación. | Yes | |
| model | string | Modelo que se va a usar para la evaluación. Debe admitir salidas estructuradas. | Yes | |
| name | string | Nombre del calificador. | Yes | |
| passing_labels | array | Etiquetas que indican un resultado de paso. Debe ser un subconjunto de etiquetas. | Yes | |
| type | enum | Tipo de objeto, que siempre label_modeles .Valores posibles: label_model |
Yes |
OpenAI.EvalGraderParams
Discriminador para OpenAI.EvalGraderParams
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
label_model |
OpenAI.EvalGraderLabelModelParams |
string_check |
OpenAI.EvalGraderStringCheckParams |
text_similarity |
OpenAI.EvalGraderTextSimilarityParams |
python |
OpenAI.EvalGraderPythonParams |
score_model |
OpenAI.EvalGraderScoreModelParams |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.GraderType | Yes |
OpenAI.EvalGraderPythonParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_tag | string | Etiqueta de imagen que se va a usar para el script de Python. | No | |
| name | string | Nombre del calificador. | Yes | |
| pass_threshold | number | Umbral de la puntuación. | No | |
| source | string | Código fuente del script de Python. | Yes | |
| type | enum | Tipo de objeto, que siempre pythones .Valores posibles: python |
Yes |
OpenAI.EvalGraderPythonResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_tag | string | Etiqueta de imagen que se va a usar para el script de Python. | No | |
| name | string | Nombre del calificador. | Yes | |
| pass_threshold | number | Umbral de la puntuación. | No | |
| source | string | Código fuente del script de Python. | Yes | |
| type | enum | Tipo de objeto, que siempre pythones .Valores posibles: python |
Yes |
OpenAI.EvalGraderResource
Discriminador para OpenAI.EvalGraderResource
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
label_model |
OpenAI.EvalGraderLabelModelResource |
text_similarity |
OpenAI.EvalGraderTextSimilarityResource |
python |
OpenAI.EvalGraderPythonResource |
score_model |
OpenAI.EvalGraderScoreModelResource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.GraderType | Yes |
OpenAI.EvalGraderScoreModelParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Texto de entrada. Esto puede incluir cadenas de plantilla. | Yes | |
| model | string | Modelo que se va a usar para la evaluación. | Yes | |
| name | string | Nombre del calificador. | Yes | |
| pass_threshold | number | Umbral de la puntuación. | No | |
| range | array | Intervalo de la puntuación. El valor predeterminado es [0, 1]. |
No | |
| sampling_params | Parámetros de muestreo para el modelo. | No | ||
| type | enum | Tipo de objeto, que siempre score_modeles .Valores posibles: score_model |
Yes |
OpenAI.EvalGraderScoreModelResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Texto de entrada. Esto puede incluir cadenas de plantilla. | Yes | |
| model | string | Modelo que se va a usar para la evaluación. | Yes | |
| name | string | Nombre del calificador. | Yes | |
| pass_threshold | number | Umbral de la puntuación. | No | |
| range | array | Intervalo de la puntuación. El valor predeterminado es [0, 1]. |
No | |
| sampling_params | Parámetros de muestreo para el modelo. | No | ||
| type | enum | Tipo de objeto, que siempre score_modeles .Valores posibles: score_model |
Yes |
OpenAI.EvalGraderStringCheckParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Texto de entrada. Esto puede incluir cadenas de plantilla. | Yes | |
| name | string | Nombre del calificador. | Yes | |
| operation | enum | Operación de comprobación de cadena que se va a realizar. Uno de eq, ne, likeo ilike.Valores posibles: eq, ne, like, ilike |
Yes | |
| reference | string | Texto de referencia. Esto puede incluir cadenas de plantilla. | Yes | |
| type | enum | Tipo de objeto, que siempre string_checkes .Valores posibles: string_check |
Yes |
OpenAI.EvalGraderTextSimilarityParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| evaluation_metric | enum | Métrica de evaluación que se va a usar. Uno de fuzzy_match, bleu, , gleumeteorrouge_1rouge_2rouge_3, , rouge_4, , rouge_5o .rouge_lValores posibles: fuzzy_match, bleu, , gleu, meteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
Yes | |
| input | string | Texto que se va a clasificar. | Yes | |
| name | string | Nombre del calificador. | Yes | |
| pass_threshold | number | Umbral de la puntuación. | Yes | |
| reference | string | Texto con el que se va a clasificar. | Yes | |
| type | enum | Tipo de calificador. Valores posibles: text_similarity |
Yes |
OpenAI.EvalGraderTextSimilarityResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| evaluation_metric | enum | Métrica de evaluación que se va a usar. Uno de fuzzy_match, bleu, , gleumeteorrouge_1rouge_2rouge_3, , rouge_4, , rouge_5o .rouge_lValores posibles: fuzzy_match, bleu, , gleu, meteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
Yes | |
| input | string | Texto que se va a clasificar. | Yes | |
| name | string | Nombre del calificador. | Yes | |
| pass_threshold | number | Umbral de la puntuación. | Yes | |
| reference | string | Texto con el que se va a clasificar. | Yes | |
| type | enum | Tipo de calificador. Valores posibles: text_similarity |
Yes |
OpenAI.EvalItem
Entrada de mensaje al modelo con un rol que indica la instrucción siguiente a la jerarquía. Las instrucciones dadas con el developer rol o system tienen prioridad sobre las instrucciones dadas con el user rol. Se supone que el modelo ha generado mensajes con el assistant rol en interacciones anteriores.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | object | Yes | ||
| └─ type | OpenAI.EvalItemContentType | No | ||
| role | enum | Rol de la entrada del mensaje. Uno de user, assistant, systemo developer.Valores posibles: user, assistant, system, developer |
Yes | |
| type | enum | Tipo de la entrada del mensaje. Siempre message.Valores posibles: message |
No |
OpenAI.EvalItemContent
Discriminador para OpenAI.EvalItemContent
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
input_text |
OpenAI.EvalItemContentInputText |
output_text |
OpenAI.EvalItemContentOutputText |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalItemContentType | Yes |
OpenAI.EvalItemContentInputText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Yes | ||
| type | enum | Valores posibles: input_text |
Yes |
OpenAI.EvalItemContentOutputText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Yes | ||
| type | enum | Valores posibles: output_text |
Yes |
OpenAI.EvalItemContentType
| Property | Value |
|---|---|
| Type | string |
| Values | input_textoutput_text |
OpenAI.EvalJsonlRunDataSourceParams
Objeto JsonlRunDataSource con que especifica un archivo JSONL que coincide con la eval
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| source | object | Yes | ||
| └─ content | array | Contenido del archivo jsonl. | No | |
| └─ id | string | Identificador del archivo. | No | |
| └─ type | enum | Tipo de origen jsonl. Siempre file_id.Valores posibles: file_id |
No | |
| type | enum | Tipo de origen de datos. Siempre jsonl.Valores posibles: jsonl |
Yes |
OpenAI.EvalList
Objeto que representa una lista de valores.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Matriz de objetos eval. | Yes | |
| first_id | string | Identificador de la primera eval de la matriz de datos. | Yes | |
| has_more | boolean | Indica si hay más evaluaciones disponibles. | Yes | |
| last_id | string | Identificador de la última eval de la matriz de datos. | Yes | |
| object | enum | Tipo de este objeto. Siempre se establece en "list". Valores posibles: list |
Yes |
OpenAI.EvalLogsDataSourceConfigParams
Una configuración del origen de datos que especifica la propiedad de metadatos de la consulta de registros.
Esto suele ser metadatos como usecase=chatbot o prompt-version=v2, etc.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| type | enum | Tipo de origen de datos. Siempre logs.Valores posibles: logs |
Yes |
OpenAI.EvalLogsDataSourceConfigResource
Un objeto LogsDataSourceConfig que especifica la propiedad de metadatos de la consulta de registros.
Esto suele ser metadatos como usecase=chatbot o prompt-version=v2, etc. El esquema devuelto por esta configuración del origen de datos se usa para definir qué variables están disponibles en las evaluaciones.
item y sample se definen al usar esta configuración del origen de datos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
Yes | |
| schema | object | Esquema json para los elementos de origen de datos de ejecución. Obtenga información sobre cómo compilar esquemas JSON aquí. |
Yes | |
| type | enum | Tipo de origen de datos. Siempre logs.Valores posibles: logs |
Yes |
OpenAI.EvalResponsesRunDataSourceParams
Objeto ResponsesRunDataSource que describe una configuración de muestreo del modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_messages | object | No | ||
| └─ item_reference | string | Referencia a una variable en el espacio de item nombres. Ie, "item.name" |
No | |
| └─ template | array | Una lista de mensajes de chat que forman el mensaje o el contexto. Puede incluir referencias de variables al item espacio de nombres, es decir, {{item.name}}. |
No | |
| └─ type | enum | Tipo de mensajes de entrada. Siempre item_reference.Valores posibles: item_reference |
No | |
| model | string | Nombre del modelo que se va a usar para generar finalizaciones (por ejemplo, "o3-mini"). | No | |
| sampling_params | AzureEvalAPIResponseSamplingParams | No | ||
| source | object | Yes | ||
| └─ content | array | Contenido del archivo jsonl. | No | |
| └─ created_after | integer | Incluya solo los elementos creados después de esta marca de tiempo (inclusive). Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| └─ created_before | integer | Incluya solo los elementos creados antes de esta marca de tiempo (inclusive). Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| └─ id | string | Identificador del archivo. | No | |
| └─ instructions_search | string | Cadena opcional para buscar en el campo "instructions". Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| └─ metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| └─ model | string | Nombre del modelo para el que buscar las respuestas. Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| └─ reasoning_effort | OpenAI.ReasoningEffort | Parámetro de esfuerzo de razonamiento opcional. Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| └─ temperature | number | Sampling temperature. Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| └─ tools | array | Lista de nombres de herramientas. Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| └─ top_p | number | Parámetro de muestreo de núcleo. Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| └─ type | enum | Tipo de origen de datos de ejecución. Siempre responses.Valores posibles: responses |
No | |
| └─ users | array | Lista de identificadores de usuario. Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| type | enum | Tipo de origen de datos de ejecución. Siempre responses.Valores posibles: responses |
Yes |
OpenAI.EvalRun
Esquema que representa una ejecución de evaluación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Marca de tiempo de Unix (en segundos) cuando se creó la ejecución de evaluación. | Yes | |
| data_source | object | Yes | ||
| └─ type | OpenAI.EvalRunDataSourceType | No | ||
| error | OpenAI.EvalApiError | Objeto que representa una respuesta de error de la API de Eval. | Yes | |
| eval_id | string | Identificador de la evaluación asociada. | Yes | |
| id | string | Identificador único de la ejecución de evaluación. | Yes | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
Yes | |
| model | string | Modelo que se evalúa, si procede. | Yes | |
| name | string | Nombre de la ejecución de evaluación. | Yes | |
| object | enum | Tipo del objeto. Always "eval.run". Valores posibles: eval.run |
Yes | |
| per_model_usage | array | Estadísticas de uso de cada modelo durante la ejecución de evaluación. | Yes | |
| per_testing_criteria_results | array | Resultados por criterios de prueba aplicados durante la ejecución de evaluación. | Yes | |
| report_url | string | Dirección URL del informe de ejecución de evaluación representada en el panel de la interfaz de usuario. | Yes | |
| result_counts | object | Contadores que resumen los resultados de la ejecución de evaluación. | Yes | |
| └─ errored | integer | Número de elementos de salida que provocaron un error. | No | |
| └─ failed | integer | Número de elementos de salida que no pudieron pasar la evaluación. | No | |
| └─ passed | integer | Número de elementos de salida que pasaron la evaluación. | No | |
| └─ total | integer | Número total de elementos de salida ejecutados. | No | |
| status | string | Estado de la ejecución de evaluación. | Yes |
OpenAI.EvalRunDataContentSource
Discriminador para OpenAI.EvalRunDataContentSource
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
file_id |
OpenAI.EvalRunFileIdDataContentSource |
stored_completions |
OpenAI.EvalRunStoredCompletionsDataContentSource |
responses |
OpenAI.EvalRunResponsesDataContentSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalRunDataContentSourceType | Yes |
OpenAI.EvalRunDataContentSourceType
| Property | Value |
|---|---|
| Type | string |
| Values | file_idfile_contentstored_completionsresponses |
OpenAI.EvalRunDataSourceCompletionsResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valores posibles: completions |
Yes |
OpenAI.EvalRunDataSourceJsonlResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valores posibles: jsonl |
Yes |
OpenAI.EvalRunDataSourceParams
Discriminador para OpenAI.EvalRunDataSourceParams
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
jsonl |
OpenAI.EvalJsonlRunDataSourceParams |
completions |
OpenAI.EvalCompletionsRunDataSourceParams |
responses |
OpenAI.EvalResponsesRunDataSourceParams |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalRunDataSourceType | Yes |
OpenAI.EvalRunDataSourceResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalRunDataSourceType | Yes |
OpenAI.EvalRunDataSourceResponsesResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valores posibles: responses |
Yes |
OpenAI.EvalRunDataSourceType
| Property | Value |
|---|---|
| Type | string |
| Values | jsonlcompletionsresponses |
OpenAI.EvalRunFileContentDataContentSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenido del archivo jsonl. | Yes | |
| type | enum | Tipo de origen jsonl. Siempre file_content.Valores posibles: file_content |
Yes |
OpenAI.EvalRunFileIdDataContentSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Identificador del archivo. | Yes | |
| type | enum | Tipo de origen jsonl. Siempre file_id.Valores posibles: file_id |
Yes |
OpenAI.EvalRunList
Objeto que representa una lista de ejecuciones para una evaluación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Matriz de objetos de ejecución de eval. | Yes | |
| first_id | string | Identificador de la primera ejecución de valor en la matriz de datos. | Yes | |
| has_more | boolean | Indica si hay más evaluaciones disponibles. | Yes | |
| last_id | string | Identificador de la última ejecución de valor en la matriz de datos. | Yes | |
| object | enum | Tipo de este objeto. Siempre se establece en "list". Valores posibles: list |
Yes |
OpenAI.EvalRunOutputItem
Esquema que representa un elemento de salida de ejecución de evaluación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Marca de tiempo de Unix (en segundos) cuando se creó la ejecución de evaluación. | Yes | |
| datasource_item | object | Detalles del elemento de origen de datos de entrada. | Yes | |
| datasource_item_id | integer | Identificador del elemento de origen de datos. | Yes | |
| eval_id | string | Identificador del grupo de evaluación. | Yes | |
| id | string | Identificador único del elemento de salida de ejecución de evaluación. | Yes | |
| object | enum | Tipo del objeto. Always "eval.run.output_item". Valores posibles: eval.run.output_item |
Yes | |
| results | array | Lista de resultados de la ejecución de evaluación. | Yes | |
| run_id | string | Identificador de la ejecución de evaluación asociada a este elemento de salida. | Yes | |
| sample | object | Ejemplo que contiene la entrada y salida de la ejecución de evaluación. | Yes | |
| └─ error | OpenAI.EvalApiError | Objeto que representa una respuesta de error de la API de Eval. | No | |
| └─ finish_reason | string | Motivo por el que finalizó la generación de muestras. | No | |
| └─ input | array | Matriz de mensajes de entrada. | No | |
| └─ max_completion_tokens | integer | Número máximo de tokens permitidos para la finalización. | No | |
| └─ model | string | Modelo usado para generar el ejemplo. | No | |
| └─ output | array | Matriz de mensajes de salida. | No | |
| └─ seed | integer | Inicialización utilizada para generar el ejemplo. | No | |
| └─ temperature | number | Temperatura de muestreo utilizada. | No | |
| └─ top_p | number | Valor de top_p usado para el muestreo. | No | |
| └─ usage | object | Detalles de uso de tokens para el ejemplo. | No | |
| └─ cached_tokens | integer | Número de tokens recuperados de la memoria caché. | No | |
| └─ completion_tokens | integer | Número de tokens de finalización generados. | No | |
| └─ prompt_tokens | integer | Número de tokens de solicitud usados. | No | |
| └─ total_tokens | integer | Número total de tokens usados. | No | |
| status | string | Estado de la ejecución de evaluación. | Yes |
OpenAI.EvalRunOutputItemList
Objeto que representa una lista de elementos de salida para una ejecución de evaluación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Matriz de objetos de elemento de salida de ejecución de eval. | Yes | |
| first_id | string | Identificador del primer elemento de salida de ejecución de eval en la matriz de datos. | Yes | |
| has_more | boolean | Indica si hay más elementos de salida de ejecución de eval disponibles. | Yes | |
| last_id | string | Identificador del último elemento de salida de ejecución de eval en la matriz de datos. | Yes | |
| object | enum | Tipo de este objeto. Siempre se establece en "list". Valores posibles: list |
Yes |
OpenAI.EvalRunResponsesDataContentSource
Objeto EvalResponsesSource que describe una configuración de origen de datos de ejecución.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_after | integer | Incluya solo los elementos creados después de esta marca de tiempo (inclusive). Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| created_before | integer | Incluya solo los elementos creados antes de esta marca de tiempo (inclusive). Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| instructions_search | string | Cadena opcional para buscar en el campo "instructions". Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| model | string | Nombre del modelo para el que buscar las respuestas. Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| reasoning_effort | object |
Solo modelos de la serie o Restringe el esfuerzo en el razonamiento de los modelos de razonamiento. Actualmente, los valores admitidos son low, mediumy high. Reducir el esfuerzo de razonamiento puede dar lugar a respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta. |
No | |
| temperature | number | Sampling temperature. Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| tools | array | Lista de nombres de herramientas. Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| top_p | number | Parámetro de muestreo de núcleo. Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No | |
| type | enum | Tipo de origen de datos de ejecución. Siempre responses.Valores posibles: responses |
Yes | |
| users | array | Lista de identificadores de usuario. Se trata de un parámetro de consulta que se usa para seleccionar respuestas. | No |
OpenAI.EvalRunStoredCompletionsDataContentSource
Una configuración StoredCompletionsRunDataSource que describe un conjunto de filtros
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_after | integer | Marca de tiempo opcional de Unix para filtrar los elementos creados después de este tiempo. | No | |
| created_before | integer | Marca de tiempo opcional de Unix para filtrar los elementos creados antes de esta hora. | No | |
| limit | integer | Número máximo opcional de elementos que se van a devolver. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
Yes | |
| model | string | Un modelo opcional para filtrar por (por ejemplo, "gpt-4o"). | No | |
| type | enum | Tipo de origen. Siempre stored_completions.Valores posibles: stored_completions |
Yes |
OpenAI.EvalStoredCompletionsDataSourceConfigParams
En desuso en favor de LogsDataSourceConfig.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Filtros de metadatos para el origen de datos de finalizaciones almacenadas. | No | |
| type | enum | Tipo de origen de datos. Siempre stored_completions.Valores posibles: stored_completions |
Yes |
OpenAI.EvalStoredCompletionsDataSourceConfigResource
En desuso en favor de LogsDataSourceConfig.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
Yes | |
| schema | object | Esquema json para los elementos de origen de datos de ejecución. Obtenga información sobre cómo compilar esquemas JSON aquí. |
Yes | |
| type | enum | Tipo de origen de datos. Siempre stored_completions.Valores posibles: stored_completions |
Yes |
OpenAI.FileSearchTool
Herramienta que busca contenido relevante de los archivos cargados.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | object | No | ||
| max_num_results | integer | Número máximo de resultados que se van a devolver. Este número debe estar comprendido entre 1 y 50 inclusive. | No | |
| ranking_options | object | No | ||
| └─ ranker | enum | Clasificador que se va a usar para la búsqueda de archivos. Valores posibles: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | Umbral de puntuación para la búsqueda de archivos, un número comprendido entre 0 y 1. Los números más cercanos a 1 intentarán devolver solo los resultados más relevantes, pero pueden devolver menos resultados. | No | |
| type | enum | Tipo de la herramienta de búsqueda de archivos. Siempre file_search.Valores posibles: file_search |
Yes | |
| vector_store_ids | array | Identificadores de los almacenes vectoriales que se van a buscar. | Yes |
OpenAI.FileSearchToolCallItemParam
Resultados de una llamada a la herramienta de búsqueda de archivos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| queries | array | Las consultas usadas para buscar archivos. | Yes | |
| results | array | Resultados de la llamada a la herramienta de búsqueda de archivos. | No | |
| type | enum | Valores posibles: file_search_call |
Yes |
OpenAI.FileSearchToolCallItemResource
Resultados de una llamada a la herramienta de búsqueda de archivos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| queries | array | Las consultas usadas para buscar archivos. | Yes | |
| results | array | Resultados de la llamada a la herramienta de búsqueda de archivos. | No | |
| status | enum | Estado de la llamada a la herramienta de búsqueda de archivos. Uno de in_progress, searchingincomplete o failed.Valores posibles: in_progress, searching, completed, , incomplete, failed |
Yes | |
| type | enum | Valores posibles: file_search_call |
Yes |
OpenAI.Filters
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Matriz de filtros que se van a combinar. Los elementos pueden ser ComparisonFilter o CompoundFilter. |
Yes | |
| key | string | Clave que se va a comparar con el valor. | Yes | |
| type | enum | Tipo de operación: and o or.Valores posibles: and, or |
Yes | |
| value | string o number o boolean | Valor que se va a comparar con la clave de atributo; admite tipos de cadena, número o booleano. | Yes |
OpenAI.FineTuneDPOHyperparameters
Hiperparámetros usados para el trabajo de ajuste de precisión del DPO.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| batch_size | enum | Valores posibles: auto |
No | |
| beta | enum | Valores posibles: auto |
No | |
| learning_rate_multiplier | enum | Valores posibles: auto |
No | |
| n_epochs | enum | Valores posibles: auto |
No |
OpenAI.FineTuneDPOMethod
Configuración para el método de ajuste de precisión de DPO.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hyperparameters | OpenAI.FineTuneDPOHyperparameters | Hiperparámetros usados para el trabajo de ajuste de precisión del DPO. | No |
OpenAI.FineTuneMethod
Método que se usa para ajustar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dpo | OpenAI.FineTuneDPOMethod | Configuración para el método de ajuste de precisión de DPO. | No | |
| reinforcement | AzureFineTuneReinforcementMethod | No | ||
| supervised | OpenAI.FineTuneSupervisedMethod | Configuración del método de ajuste fino supervisado. | No | |
| type | enum | Tipo de método.
supervisedEs , dpoo reinforcement.Valores posibles: supervised, dpo, reinforcement |
Yes |
OpenAI.FineTuneReinforcementHyperparameters
Los hiperparámetros usados para el trabajo de ajuste fino de refuerzo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| batch_size | enum | Valores posibles: auto |
No | |
| compute_multiplier | enum | Valores posibles: auto |
No | |
| eval_interval | enum | Valores posibles: auto |
No | |
| eval_samples | enum | Valores posibles: auto |
No | |
| learning_rate_multiplier | enum | Valores posibles: auto |
No | |
| n_epochs | enum | Valores posibles: auto |
No | |
| reasoning_effort | enum | Nivel de esfuerzo de razonamiento. Valores posibles: default, low, medium, high |
No |
OpenAI.FineTuneSupervisedHyperparameters
Hiperparámetros usados para el trabajo de ajuste preciso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| batch_size | enum | Valores posibles: auto |
No | |
| learning_rate_multiplier | enum | Valores posibles: auto |
No | |
| n_epochs | enum | Valores posibles: auto |
No |
OpenAI.FineTuneSupervisedMethod
Configuración del método de ajuste fino supervisado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hyperparameters | OpenAI.FineTuneSupervisedHyperparameters | Hiperparámetros usados para el trabajo de ajuste preciso. | No |
OpenAI.FineTuningIntegration
Discriminador para OpenAI.FineTuningIntegration
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
wandb |
OpenAI.FineTuningIntegrationWandb |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string (consulte los modelos válidos a continuación) | Yes |
OpenAI.FineTuningIntegrationWandb
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo de integración que se habilita para el trabajo de ajuste preciso. Valores posibles: wandb |
Yes | |
| wandb | object | La configuración de la integración con Weights y Biases. Esta carga especifica el proyecto al que se enviarán las métricas. Opcionalmente, puede establecer un nombre para mostrar explícito para la ejecución, agregar etiquetas a la ejecución y establecer una entidad predeterminada (equipo, nombre de usuario, etc.) que se asociará a la ejecución. | Yes | |
| └─ entity | string | Entidad que se va a usar para la ejecución. Esto le permite establecer el equipo o el nombre de usuario del usuario wandB que desea asociar con la ejecución. Si no se establece, se usa la entidad predeterminada para la clave de API wandB registrada. | No | |
| └─ name | string | Nombre para mostrar que se va a establecer para la ejecución. Si no se establece, usaremos el id. de trabajo como nombre. | No | |
| └─ project | string | Nombre del proyecto en el que se creará la nueva ejecución. | No | |
| └─ tags | array | Lista de etiquetas que se van a adjuntar a la ejecución recién creada. Estas etiquetas se pasan directamente a WandB. OpenAI genera algunas etiquetas predeterminadas: "openai/finetune", "openai/{base-model}", "openai/{ftjob-abcdef}". | No |
OpenAI.FineTuningJob
El fine_tuning.job objeto representa un trabajo de ajuste preciso que se ha creado a través de la API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Marca de tiempo de Unix (en segundos) para cuando se creó el trabajo de ajuste preciso. | Yes | |
| error | object | Para los trabajos de ajuste preciso que tienen failed, esto contendrá más información sobre la causa del error. |
Yes | |
| └─ code | string | Código de error legible por máquina. | No | |
| └─ message | string | Mensaje de error legible. | No | |
| └─ param | string | Parámetro que no era válido, normalmente training_file o validation_file. Este campo será null si el error no era específico del parámetro. |
No | |
| estimated_finish | integer | Marca de tiempo de Unix (en segundos) para cuando se estima que el trabajo de ajuste preciso finaliza. El valor será NULL si el trabajo de ajuste fino no se está ejecutando. | No | |
| fine_tuned_model | string | Nombre del modelo optimizado que se va a crear. El valor será NULL si el trabajo de ajuste se sigue ejecutando. | Yes | |
| finished_at | integer | Marca de tiempo de Unix (en segundos) durante el momento en que se finalizó el trabajo de ajuste. El valor será NULL si el trabajo de ajuste se sigue ejecutando. | Yes | |
| hyperparameters | object | Hiperparámetros usados para el trabajo de ajuste preciso. Este valor solo se devolverá cuando se ejecuten supervised trabajos. |
Yes | |
| └─ batch_size | enum | Valores posibles: auto |
No | |
| └─ learning_rate_multiplier | enum | Valores posibles: auto |
No | |
| └─ n_epochs | enum | Valores posibles: auto |
No | |
| id | string | Identificador de objeto, al que se puede hacer referencia en los puntos de conexión de API. | Yes | |
| integrations | array | Lista de integraciones que se habilitarán para este trabajo de ajuste preciso. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
Yes | |
| method | OpenAI.FineTuneMethod | Método que se usa para ajustar. | No | |
| model | string | Modelo base que se está ajustando. | Yes | |
| object | enum | Tipo de objeto, que siempre es "fine_tuning.job". Valores posibles: fine_tuning.job |
Yes | |
| organization_id | string | La organización que posee el trabajo de ajuste preciso. | Yes | |
| result_files | array | Identificadores de archivo de resultados compilados para el trabajo de ajuste preciso. Puede recuperar los resultados con la API files. | Yes | |
| seed | integer | Valor de inicialización utilizado para el trabajo de ajuste. | Yes | |
| status | enum | Estado actual del trabajo de ajuste fino, que puede ser validating_files, queued, running, succeeded, failedo cancelled.Valores posibles: validating_files, queued, running, succeeded, , failed, cancelled |
Yes | |
| trained_tokens | integer | Número total de tokens facturables procesados por este trabajo de ajuste preciso. El valor será NULL si el trabajo de ajuste se sigue ejecutando. | Yes | |
| training_file | string | Identificador de archivo usado para el entrenamiento. Puede recuperar los datos de entrenamiento con la API Files. | Yes | |
| user_provided_suffix | string | Sufijo descriptivo aplicado al trabajo, tal como se especifica en la solicitud de creación de trabajos. | No | |
| validation_file | string | Identificador de archivo usado para la validación. Puede recuperar los resultados de validación con la API files. | Yes |
OpenAI.FineTuningJobCheckpoint
El fine_tuning.job.checkpoint objeto representa un punto de control de modelo para un trabajo de ajuste que está listo para usarse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Marca de tiempo de Unix (en segundos) para cuando se creó el punto de control. | Yes | |
| fine_tuned_model_checkpoint | string | Nombre del modelo de punto de control ajustado que se crea. | Yes | |
| fine_tuning_job_id | string | Nombre del trabajo de ajuste preciso del que se creó este punto de control. | Yes | |
| id | string | Identificador de punto de control, al que se puede hacer referencia en los puntos de conexión de API. | Yes | |
| metrics | object | Métricas en el número de paso durante el trabajo de ajuste preciso. | Yes | |
| └─ full_valid_loss | number | No | ||
| └─ full_valid_mean_token_accuracy | number | No | ||
| └─ step | number | No | ||
| └─ train_loss | number | No | ||
| └─ train_mean_token_accuracy | number | No | ||
| └─ valid_loss | number | No | ||
| └─ valid_mean_token_accuracy | number | No | ||
| object | enum | Tipo de objeto, que siempre es "fine_tuning.job.checkpoint". Valores posibles: fine_tuning.job.checkpoint |
Yes | |
| step_number | integer | Número de paso en el que se creó el punto de control. | Yes |
OpenAI.FineTuningJobEvent
Objeto de evento de trabajo de ajuste preciso
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Marca de tiempo de Unix (en segundos) para cuando se creó el trabajo de ajuste preciso. | Yes | |
| data | Los datos asociados al evento. | No | ||
| id | string | Identificador de objeto. | Yes | |
| level | enum | Nivel de registro del evento. Valores posibles: info, warn, error |
Yes | |
| message | string | Mensaje del evento. | Yes | |
| object | enum | Tipo de objeto, que siempre es "fine_tuning.job.event". Valores posibles: fine_tuning.job.event |
Yes | |
| type | enum | Tipo de evento. Valores posibles: message, metrics |
No |
OpenAI.FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descripción de lo que hace la función, que usa el modelo para elegir cuándo y cómo llamar a la función. | No | |
| name | string | Nombre de la función a la que se va a llamar. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64. | Yes | |
| parameters | Los parámetros que aceptan las funciones, que se describen como un objeto de esquema JSON. | No | ||
| strict | boolean | Indica si se debe habilitar el cumplimiento estricto del esquema al generar la llamada a la función. Si se establece en true, el modelo seguirá el esquema exacto definido en el parameters campo . Solo se admite un subconjunto de esquema JSON cuando strict es true. |
No | False |
OpenAI.FunctionTool
Define una función en su propio código al que el modelo puede optar por llamar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descripción de la función. Lo usa el modelo para determinar si se debe llamar a la función o no. | No | |
| name | string | Nombre de la función a la que se va a llamar. | Yes | |
| parameters | Objeto de esquema JSON que describe los parámetros de la función. | Yes | ||
| strict | boolean | Si se va a aplicar la validación estricta de parámetros. Valor predeterminado true. |
Yes | |
| type | enum | Tipo de la herramienta de función. Siempre function.Valores posibles: function |
Yes |
OpenAI.FunctionToolCallItemParam
Una llamada de herramienta para ejecutar una función.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Cadena JSON de los argumentos que se van a pasar a la función. | Yes | |
| call_id | string | Identificador único de la llamada a la herramienta de función generada por el modelo. | Yes | |
| name | string | Nombre de la función que se va a ejecutar. | Yes | |
| type | enum | Valores posibles: function_call |
Yes |
OpenAI.FunctionToolCallItemResource
Una llamada de herramienta para ejecutar una función.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Cadena JSON de los argumentos que se van a pasar a la función. | Yes | |
| call_id | string | Identificador único de la llamada a la herramienta de función generada por el modelo. | Yes | |
| name | string | Nombre de la función que se va a ejecutar. | Yes | |
| status | enum | Estado del elemento. Uno de in_progress, completedo incomplete. Se rellena cuando los elementos se devuelven a través de la API.Valores posibles: in_progress, completed, incomplete |
Yes | |
| type | enum | Valores posibles: function_call |
Yes |
OpenAI.FunctionToolCallOutputItemParam
Salida de una llamada a la herramienta de función.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | Identificador único de la llamada a la herramienta de función generada por el modelo. | Yes | |
| output | string | Cadena JSON de la salida de la llamada a la herramienta de función. | Yes | |
| type | enum | Valores posibles: function_call_output |
Yes |
OpenAI.FunctionToolCallOutputItemResource
Salida de una llamada a la herramienta de función.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | Identificador único de la llamada a la herramienta de función generada por el modelo. | Yes | |
| output | string | Cadena JSON de la salida de la llamada a la herramienta de función. | Yes | |
| status | enum | Estado del elemento. Uno de in_progress, completedo incomplete. Se rellena cuando los elementos se devuelven a través de la API.Valores posibles: in_progress, completed, incomplete |
Yes | |
| type | enum | Valores posibles: function_call_output |
Yes |
OpenAI.Grader
Discriminador para OpenAI.Grader
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
label_model |
OpenAI.GraderLabelModel |
text_similarity |
OpenAI.GraderTextSimilarity |
python |
OpenAI.GraderPython |
score_model |
OpenAI.GraderScoreModel |
multi |
OpenAI.GraderMulti |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.GraderType | Yes |
OpenAI.GraderLabelModel
Objeto LabelModelGrader que usa un modelo para asignar etiquetas a cada elemento de la evaluación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Yes | ||
| labels | array | Etiquetas que se van a asignar a cada elemento de la evaluación. | Yes | |
| model | string | Modelo que se va a usar para la evaluación. Debe admitir salidas estructuradas. | Yes | |
| name | string | Nombre del calificador. | Yes | |
| passing_labels | array | Etiquetas que indican un resultado de paso. Debe ser un subconjunto de etiquetas. | Yes | |
| type | enum | Tipo de objeto, que siempre label_modeles .Valores posibles: label_model |
Yes |
OpenAI.GraderMulti
Un objeto MultiGrader combina la salida de varios calificadores para generar una sola puntuación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| calculate_output | string | Fórmula para calcular la salida en función de los resultados del calificador. | Yes | |
| graders | object | Yes | ||
| name | string | Nombre del calificador. | Yes | |
| type | enum | Tipo de objeto, que siempre multies .Valores posibles: multi |
Yes |
OpenAI.GraderPython
Objeto PythonGrader que ejecuta un script de Python en la entrada.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_tag | string | Etiqueta de imagen que se va a usar para el script de Python. | No | |
| name | string | Nombre del calificador. | Yes | |
| source | string | Código fuente del script de Python. | Yes | |
| type | enum | Tipo de objeto, que siempre pythones .Valores posibles: python |
Yes |
OpenAI.GraderScoreModel
Objeto ScoreModelGrader que usa un modelo para asignar una puntuación a la entrada.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Texto de entrada. Esto puede incluir cadenas de plantilla. | Yes | |
| model | string | Modelo que se va a usar para la evaluación. | Yes | |
| name | string | Nombre del calificador. | Yes | |
| range | array | Intervalo de la puntuación. El valor predeterminado es [0, 1]. |
No | |
| sampling_params | Parámetros de muestreo para el modelo. | No | ||
| type | enum | Tipo de objeto, que siempre score_modeles .Valores posibles: score_model |
Yes |
OpenAI.GraderStringCheck
Objeto StringCheckGrader que realiza una comparación de cadenas entre la entrada y la referencia mediante una operación especificada.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Texto de entrada. Esto puede incluir cadenas de plantilla. | Yes | |
| name | string | Nombre del calificador. | Yes | |
| operation | enum | Operación de comprobación de cadena que se va a realizar. Uno de eq, ne, likeo ilike.Valores posibles: eq, ne, like, ilike |
Yes | |
| reference | string | Texto de referencia. Esto puede incluir cadenas de plantilla. | Yes | |
| type | enum | Tipo de objeto, que siempre string_checkes .Valores posibles: string_check |
Yes |
OpenAI.GraderTextSimilarity
Objeto TextSimilarityGrader que clasifica el texto en función de las métricas de similitud.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| evaluation_metric | enum | Métrica de evaluación que se va a usar. Uno de fuzzy_match, bleu, , gleumeteorrouge_1rouge_2rouge_3, , rouge_4, , rouge_5o .rouge_lValores posibles: fuzzy_match, bleu, , gleu, meteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
Yes | |
| input | string | Texto que se va a clasificar. | Yes | |
| name | string | Nombre del calificador. | Yes | |
| reference | string | Texto con el que se va a clasificar. | Yes | |
| type | enum | Tipo de calificador. Valores posibles: text_similarity |
Yes |
OpenAI.GraderType
| Property | Value |
|---|---|
| Type | string |
| Values | string_checktext_similarityscore_modellabel_modelpythonmulti |
OpenAI.ImageGenTool
Herramienta que genera imágenes mediante un modelo como gpt-image-1.5.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | GPT-image-1 solo: tipo de fondo para la imagen generada. Uno de transparent, opaqueo auto. Valor predeterminado: auto.Valores posibles: transparent, opaque, auto |
No | |
| input_image_mask | object | Máscara opcional para la inpaintación. Contiene image_url (cadena, opcional) y file_id (cadena, opcional). |
No | |
| └─ file_id | string | Identificador de archivo de la imagen de máscara. | No | |
| └─ image_url | string | Imagen de máscara codificada en Base64. | No | |
| model | enum | Modelo de generación de imágenes que se va a usar. Valor predeterminado: gpt-image-1.Valores posibles: gpt-image-1, gpt-image-1.5, gpt-image-2 |
No | |
| moderation | enum | Nivel de moderación de la imagen generada. Valor predeterminado: auto.Valores posibles: auto, low |
No | |
| output_compression | integer | Nivel de compresión de la imagen de salida. Default: 100. | No | 100 |
| output_format | enum | Formato de salida de la imagen generada. Uno de png, webpo jpeg. Valor predeterminado: png.Valores posibles: png, webp, jpeg |
No | |
| partial_images | integer | Número de imágenes parciales que se van a generar en modo de streaming, de 0 (valor predeterminado) a 3. | No | 0 |
| quality | enum | Calidad de la imagen generada. Uno de low, medium, higho auto. Valor predeterminado: auto.Valores posibles: low, medium, high, auto |
No | |
| size | enum | Tamaño de la imagen generada. Uno de 1024x1024, 1024x1536, 1536x1024o auto. Valor predeterminado: auto.Valores posibles: 1024x1024, 1024x1536, 1536x1024, auto |
No | |
| type | enum | Tipo de la herramienta de generación de imágenes. Siempre image_generation.Valores posibles: image_generation |
Yes |
OpenAI.ImageGenToolCallItemParam
Solicitud de generación de imágenes realizada por el modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| result | string | Imagen generada codificada en base64. | Yes | |
| type | enum | Valores posibles: image_generation_call |
Yes |
OpenAI.ImageGenToolCallItemResource
Solicitud de generación de imágenes realizada por el modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| result | string | Imagen generada codificada en base64. | Yes | |
| status | enum | Valores posibles: in_progress, completed, generating, failed |
Yes | |
| type | enum | Valores posibles: image_generation_call |
Yes |
OpenAI.ImplicitUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string o array | Yes |
OpenAI.Includable
Especifique datos de salida adicionales que se incluirán en la respuesta del modelo. Los valores admitidos actualmente son:
-
code_interpreter_call.outputs: incluye las salidas de la ejecución de código de Python en los elementos de llamada de la herramienta de intérprete de código. -
computer_call_output.output.image_url: incluya direcciones URL de imagen desde la salida de la llamada del equipo. -
file_search_call.results: incluya los resultados de búsqueda de la llamada a la herramienta de búsqueda de archivos. -
message.input_image.image_url: incluya direcciones URL de imagen del mensaje de entrada. -
message.output_text.logprobs: incluya logprobs con mensajes de asistente. -
reasoning.encrypted_content: incluye una versión cifrada de tokens de razonamiento en las salidas del elemento de razonamiento. Esto permite usar elementos de razonamiento en conversaciones multiturno cuando se usa la API de respuestas sin estado (como cuando elstoreparámetro se establecefalseen o cuando una organización está inscrita en el programa de retención de datos cero).
| Property | Value |
|---|---|
| Description | Especifique datos de salida adicionales que se incluirán en la respuesta del modelo. Los valores admitidos actualmente son: - code_interpreter_call.outputs: incluye las salidas de la ejecución de código de Python en los elementos de llamada de la herramienta de intérprete de código.- computer_call_output.output.image_url: incluya direcciones URL de imagen desde la salida de la llamada del equipo.- file_search_call.results: incluya los resultados de búsqueda de la llamada a la herramienta de búsqueda de archivos.- message.input_image.image_url: incluya direcciones URL de imagen del mensaje de entrada.- message.output_text.logprobs: incluya logprobs con mensajes de asistente.- reasoning.encrypted_content: incluye una versión cifrada de tokens de razonamiento en las salidas del elemento de razonamiento. Esto permite usar elementos de razonamiento en conversaciones multiturno cuando se usa la API de respuestas sin estado (como cuando el store parámetro se establece falseen o cuando una organización está inscrita en el programa de retención de datos cero). |
| Type | string |
| Values | code_interpreter_call.outputscomputer_call_output.output.image_urlfile_search_call.resultsmessage.input_image.image_urlmessage.output_text.logprobsreasoning.encrypted_content |
OpenAI.ItemContent
Discriminador para OpenAI.ItemContent
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
input_audio |
OpenAI.ItemContentInputAudio |
output_audio |
OpenAI.ItemContentOutputAudio |
refusal |
OpenAI.ItemContentRefusal |
input_text |
OpenAI.ItemContentInputText |
input_image |
OpenAI.ItemContentInputImage |
input_file |
OpenAI.ItemContentInputFile |
output_text |
OpenAI.ItemContentOutputText |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ItemContentType | Contenido de entrada y salida multi modal. | Yes |
OpenAI.ItemContentInputAudio
Entrada de audio al modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Datos de audio codificados en Base64. | Yes | |
| format | enum | Formato de los datos de audio. Los formatos admitidos actualmente son mp3 y wav.Valores posibles: mp3, wav |
Yes | |
| type | enum | Tipo del elemento de entrada. Siempre input_audio.Valores posibles: input_audio |
Yes |
OpenAI.ItemContentInputFile
Entrada de archivo en el modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_data | string | Contenido del archivo que se va a enviar al modelo. | No | |
| file_id | string | Identificador del archivo que se va a enviar al modelo. | No | |
| filename | string | Nombre del archivo que se va a enviar al modelo. | No | |
| type | enum | Tipo del elemento de entrada. Siempre input_file.Valores posibles: input_file |
Yes |
OpenAI.ItemContentInputImage
Entrada de imagen en el modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detail | enum | Nivel de detalle de la imagen que se va a enviar al modelo. Uno de high, lowo auto. El valor predeterminado es auto.Valores posibles: low, high, auto |
No | |
| file_id | string | Identificador del archivo que se va a enviar al modelo. | No | |
| image_url | string | Dirección URL de la imagen que se va a enviar al modelo. Una dirección URL completa o una imagen codificada en base64 en una dirección URL de datos. | No | |
| type | enum | Tipo del elemento de entrada. Siempre input_image.Valores posibles: input_image |
Yes |
OpenAI.ItemContentInputText
Entrada de texto al modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Entrada de texto en el modelo. | Yes | |
| type | enum | Tipo del elemento de entrada. Siempre input_text.Valores posibles: input_text |
Yes |
OpenAI.ItemContentOutputAudio
Salida de audio del modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Datos de audio codificados en Base64 del modelo. | Yes | |
| transcript | string | Transcripción de los datos de audio del modelo. | Yes | |
| type | enum | Tipo del audio de salida. Siempre output_audio.Valores posibles: output_audio |
Yes |
OpenAI.ItemContentOutputText
Salida de texto del modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Anotaciones de la salida de texto. | Yes | |
| logprobs | array | No | ||
| text | string | Salida de texto del modelo. | Yes | |
| type | enum | Tipo del texto de salida. Siempre output_text.Valores posibles: output_text |
Yes |
OpenAI.ItemContentRefusal
Una negativa del modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Explicación de denegación del modelo. | Yes | |
| type | enum | Tipo de denegación. Siempre refusal.Valores posibles: refusal |
Yes |
OpenAI.ItemContentType
Contenido de entrada y salida multi modal.
| Property | Value |
|---|---|
| Description | Contenido de entrada y salida multi modal. |
| Type | string |
| Values | input_textinput_audioinput_imageinput_fileoutput_textoutput_audiorefusal |
OpenAI.ItemParam
Elemento de contenido usado para generar una respuesta.
Discriminador para OpenAI.ItemParam
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
file_search_call |
OpenAI.FileSearchToolCallItemParam |
computer_call |
OpenAI.ComputerToolCallItemParam |
computer_call_output |
OpenAI.ComputerToolCallOutputItemParam |
web_search_call |
OpenAI.WebSearchToolCallItemParam |
function_call |
OpenAI.FunctionToolCallItemParam |
function_call_output |
OpenAI.FunctionToolCallOutputItemParam |
reasoning |
OpenAI.ReasoningItemParam |
item_reference |
OpenAI.ItemReferenceItemParam |
image_generation_call |
OpenAI.ImageGenToolCallItemParam |
code_interpreter_call |
OpenAI.CodeInterpreterToolCallItemParam |
local_shell_call |
OpenAI.LocalShellToolCallItemParam |
local_shell_call_output |
OpenAI.LocalShellToolCallOutputItemParam |
mcp_list_tools |
OpenAI.MCPListToolsItemParam |
mcp_approval_request |
OpenAI.MCPApprovalRequestItemParam |
mcp_approval_response |
OpenAI.MCPApprovalResponseItemParam |
mcp_call |
OpenAI.MCPCallItemParam |
message |
OpenAI.ResponsesMessageItemParam |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ItemType | Yes |
OpenAI.ItemReferenceItemParam
Identificador interno de un elemento al que se va a hacer referencia.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Identificador originado por el servicio del elemento de respuesta generado anteriormente al que se hace referencia. | Yes | |
| type | enum | Valores posibles: item_reference |
Yes |
OpenAI.ItemResource
Elemento de contenido usado para generar una respuesta.
Discriminador para OpenAI.ItemResource
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
file_search_call |
OpenAI.FileSearchToolCallItemResource |
computer_call |
OpenAI.ComputerToolCallItemResource |
computer_call_output |
OpenAI.ComputerToolCallOutputItemResource |
web_search_call |
OpenAI.WebSearchToolCallItemResource |
function_call |
OpenAI.FunctionToolCallItemResource |
function_call_output |
OpenAI.FunctionToolCallOutputItemResource |
reasoning |
OpenAI.ReasoningItemResource |
image_generation_call |
OpenAI.ImageGenToolCallItemResource |
code_interpreter_call |
OpenAI.CodeInterpreterToolCallItemResource |
local_shell_call |
OpenAI.LocalShellToolCallItemResource |
local_shell_call_output |
OpenAI.LocalShellToolCallOutputItemResource |
mcp_list_tools |
OpenAI.MCPListToolsItemResource |
mcp_approval_request |
OpenAI.MCPApprovalRequestItemResource |
mcp_approval_response |
OpenAI.MCPApprovalResponseItemResource |
mcp_call |
OpenAI.MCPCallItemResource |
message |
OpenAI.ResponsesMessageItemResource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Yes | ||
| type | OpenAI.ItemType | Yes |
OpenAI.ItemType
| Property | Value |
|---|---|
| Type | string |
| Values | messagefile_search_callfunction_callfunction_call_outputcomputer_callcomputer_call_outputweb_search_callreasoningitem_referenceimage_generation_callcode_interpreter_calllocal_shell_calllocal_shell_call_outputmcp_list_toolsmcp_approval_requestmcp_approval_responsemcp_call |
OpenAI.ListFineTuningJobCheckpointsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | No | ||
| has_more | boolean | Yes | ||
| last_id | string | No | ||
| object | enum | Valores posibles: list |
Yes |
OpenAI.ListFineTuningJobEventsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| has_more | boolean | Yes | ||
| object | enum | Valores posibles: list |
Yes |
OpenAI.ListModelsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| object | enum | Valores posibles: list |
Yes |
OpenAI.ListPaginatedFineTuningJobsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| has_more | boolean | Yes | ||
| object | enum | Valores posibles: list |
Yes |
OpenAI.ListVectorStoreFilesFilter
| Property | Value |
|---|---|
| Type | string |
| Values | in_progresscompletedfailedcancelled |
OpenAI.ListVectorStoreFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | enum | Valores posibles: list |
Yes |
OpenAI.ListVectorStoresResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | enum | Valores posibles: list |
Yes |
OpenAI.LocalShellExecAction
Ejecute un comando de shell en el servidor.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| command | array | Comando que se va a ejecutar. | Yes | |
| env | object | Variables de entorno que se van a establecer para el comando. | Yes | |
| timeout_ms | integer | Tiempo de espera opcional en milisegundos para el comando. | No | |
| type | enum | Tipo de la acción de shell local. Siempre exec.Valores posibles: exec |
Yes | |
| user | string | Usuario opcional para ejecutar el comando como. | No | |
| working_directory | string | Directorio de trabajo opcional en el que ejecutar el comando. | No |
OpenAI.LocalShellTool
Herramienta que permite al modelo ejecutar comandos de shell en un entorno local.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo de la herramienta de shell local. Siempre local_shell.Valores posibles: local_shell |
Yes |
OpenAI.LocalShellToolCallItemParam
Una llamada de herramienta para ejecutar un comando en el shell local.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | OpenAI.LocalShellExecAction | Ejecute un comando de shell en el servidor. | Yes | |
| call_id | string | Identificador único de la llamada a la herramienta de shell local generada por el modelo. | Yes | |
| type | enum | Valores posibles: local_shell_call |
Yes |
OpenAI.LocalShellToolCallItemResource
Una llamada de herramienta para ejecutar un comando en el shell local.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | OpenAI.LocalShellExecAction | Ejecute un comando de shell en el servidor. | Yes | |
| call_id | string | Identificador único de la llamada a la herramienta de shell local generada por el modelo. | Yes | |
| status | enum | Valores posibles: in_progress, completed, incomplete |
Yes | |
| type | enum | Valores posibles: local_shell_call |
Yes |
OpenAI.LocalShellToolCallOutputItemParam
Salida de una llamada a la herramienta de shell local.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| output | string | Cadena JSON de la salida de la llamada a la herramienta de shell local. | Yes | |
| type | enum | Valores posibles: local_shell_call_output |
Yes |
OpenAI.LocalShellToolCallOutputItemResource
Salida de una llamada a la herramienta de shell local.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| output | string | Cadena JSON de la salida de la llamada a la herramienta de shell local. | Yes | |
| status | enum | Valores posibles: in_progress, completed, incomplete |
Yes | |
| type | enum | Valores posibles: local_shell_call_output |
Yes |
OpenAI.Location
Discriminador para OpenAI.Location
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
approximate |
OpenAI.ApproximateLocation |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.LocationType | Yes |
OpenAI.LocationType
| Property | Value |
|---|---|
| Type | string |
| Values | approximate |
OpenAI.LogProb
Probabilidad de registro de un token.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Yes | ||
| logprob | number | Yes | ||
| token | string | Yes | ||
| top_logprobs | array | Yes |
OpenAI.MCPApprovalRequestItemParam
Solicitud de aprobación humana de una invocación de herramienta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Cadena JSON de argumentos para la herramienta. | Yes | |
| name | string | Nombre de la herramienta que se va a ejecutar. | Yes | |
| server_label | string | Etiqueta del servidor MCP que realiza la solicitud. | Yes | |
| type | enum | Valores posibles: mcp_approval_request |
Yes |
OpenAI.MCPApprovalRequestItemResource
Solicitud de aprobación humana de una invocación de herramienta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Cadena JSON de argumentos para la herramienta. | Yes | |
| name | string | Nombre de la herramienta que se va a ejecutar. | Yes | |
| server_label | string | Etiqueta del servidor MCP que realiza la solicitud. | Yes | |
| type | enum | Valores posibles: mcp_approval_request |
Yes |
OpenAI.MCPApprovalResponseItemParam
Respuesta a una solicitud de aprobación de MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| approval_request_id | string | Identificador de la solicitud de aprobación que se va a responder. | Yes | |
| approve | boolean | Si se aprobó la solicitud. | Yes | |
| reason | string | Motivo opcional de la decisión. | No | |
| type | enum | Valores posibles: mcp_approval_response |
Yes |
OpenAI.MCPApprovalResponseItemResource
Respuesta a una solicitud de aprobación de MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| approval_request_id | string | Identificador de la solicitud de aprobación que se va a responder. | Yes | |
| approve | boolean | Si se aprobó la solicitud. | Yes | |
| reason | string | Motivo opcional de la decisión. | No | |
| type | enum | Valores posibles: mcp_approval_response |
Yes |
OpenAI.MCPCallItemParam
Una invocación de una herramienta en un servidor MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Cadena JSON de los argumentos pasados a la herramienta. | Yes | |
| error | string | Error de la llamada a la herramienta, si existe. | No | |
| name | string | Nombre de la herramienta que se ejecutó. | Yes | |
| output | string | Salida de la llamada a la herramienta. | No | |
| server_label | string | Etiqueta del servidor MCP que ejecuta la herramienta. | Yes | |
| type | enum | Valores posibles: mcp_call |
Yes |
OpenAI.MCPCallItemResource
Una invocación de una herramienta en un servidor MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Cadena JSON de los argumentos pasados a la herramienta. | Yes | |
| error | string | Error de la llamada a la herramienta, si existe. | No | |
| name | string | Nombre de la herramienta que se ejecutó. | Yes | |
| output | string | Salida de la llamada a la herramienta. | No | |
| server_label | string | Etiqueta del servidor MCP que ejecuta la herramienta. | Yes | |
| type | enum | Valores posibles: mcp_call |
Yes |
OpenAI.MCPListToolsItemParam
Lista de herramientas disponibles en un servidor MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | string | Mensaje de error si el servidor no pudo enumerar las herramientas. | No | |
| server_label | string | Etiqueta del servidor MCP. | Yes | |
| tools | array | Las herramientas disponibles en el servidor. | Yes | |
| type | enum | Valores posibles: mcp_list_tools |
Yes |
OpenAI.MCPListToolsItemResource
Lista de herramientas disponibles en un servidor MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | string | Mensaje de error si el servidor no pudo enumerar las herramientas. | No | |
| server_label | string | Etiqueta del servidor MCP. | Yes | |
| tools | array | Las herramientas disponibles en el servidor. | Yes | |
| type | enum | Valores posibles: mcp_list_tools |
Yes |
OpenAI.MCPListToolsTool
Una herramienta disponible en un servidor MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | Anotaciones adicionales sobre la herramienta. | No | ||
| description | string | Descripción de la herramienta. | No | |
| input_schema | Esquema JSON que describe la entrada de la herramienta. | Yes | ||
| name | string | Nombre de la herramienta. | Yes |
OpenAI.MCPTool
Conceda al modelo acceso a herramientas adicionales a través de servidores remotos del Protocolo de contexto de modelo (MCP).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allowed_tools | object | No | ||
| └─ tool_names | array | Lista de nombres de herramientas permitidos. | No | |
| headers | object | Encabezados HTTP opcionales para enviar al servidor MCP. Use para la autenticación u otros fines. | No | |
| require_approval | object (consulte los modelos válidos a continuación) | Especifique cuál de las herramientas del servidor MCP requiere aprobación. | No | |
| server_label | string | Etiqueta para este servidor MCP, que se usa para identificarlo en las llamadas a herramientas. | Yes | |
| server_url | string | Dirección URL del servidor MCP. | Yes | |
| type | enum | Tipo de la herramienta MCP. Siempre mcp.Valores posibles: mcp |
Yes |
OpenAI.MetadataPropertyForRequest
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel.
Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No |
OpenAI.Model
Describe una oferta de modelo de OpenAI que se puede usar con la API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Marca de tiempo de Unix (en segundos) cuando se creó el modelo. | Yes | |
| id | string | Identificador del modelo, al que se puede hacer referencia en los puntos de conexión de API. | Yes | |
| object | enum | Tipo de objeto, que siempre es "modelo". Valores posibles: model |
Yes | |
| owned_by | string | La organización que posee el modelo. | Yes |
OpenAI.OtherChunkingStrategyResponseParam
Esto se devuelve cuando se desconoce la estrategia de fragmentación. Normalmente, esto se debe a que el archivo se indizó antes de que el chunking_strategy concepto se introdujera en la API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Siempre other.Valores posibles: other |
Yes |
OpenAI.ParallelToolCalls
Indica si se debe habilitar la llamada a funciones paralelas durante el uso de la herramienta.
Type: boolean
OpenAI.Prompt
Referencia a una plantilla de solicitud y sus variables.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Identificador único de la plantilla de solicitud que se va a usar. | Yes | |
| variables | object | Asignación opcional de valores para sustituir por variables en el símbolo del sistema. Los valores de sustitución pueden ser cadenas u otros tipos de entrada de respuesta, como imágenes o archivos. | No | |
| version | string | Versión opcional de la plantilla de solicitud. | No |
OpenAI.RankingOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| ranker | enum | Clasificador que se va a usar para la búsqueda de archivos. Valores posibles: auto, default-2024-11-15 |
No | |
| score_threshold | number | Umbral de puntuación para la búsqueda de archivos, un número comprendido entre 0 y 1. Los números más cercanos a 1 intentarán devolver solo los resultados más relevantes, pero pueden devolver menos resultados. | No |
OpenAI.Reasoning
Solo modelos de la serie o
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| effort | object |
Solo modelos de la serie o Restringe el esfuerzo en el razonamiento de los modelos de razonamiento. Actualmente, los valores admitidos son low, mediumy high. Reducir el esfuerzo de razonamiento puede dar lugar a respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta. |
No | |
| generate_summary | enum |
En desuso: use summary en su lugar.Resumen del razonamiento realizado por el modelo. Esto puede ser útil para depurar y comprender el proceso de razonamiento del modelo. Uno de auto, conciseo detailed.Valores posibles: auto, concise, detailed |
No | |
| summary | enum | Resumen del razonamiento realizado por el modelo. Esto puede ser útil para depurar y comprender el proceso de razonamiento del modelo. Uno de auto, conciseo detailed.Valores posibles: auto, concise, detailed |
No |
OpenAI.ReasoningEffort
Solo modelos de la serie o
Restringe el esfuerzo en el razonamiento de los modelos de razonamiento. Actualmente, los valores admitidos son low, mediumy high. Reducir el esfuerzo de razonamiento puede dar lugar a respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta.
| Property | Value |
|---|---|
| Description |
Solo modelos de la serie o Restringe el esfuerzo en el razonamiento de los modelos de razonamiento. Actualmente, los valores admitidos son low, mediumy high. Reducir el esfuerzo de razonamiento puede dar lugar a respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta. |
| Type | string |
| Values | lowmediumhigh |
OpenAI.ReasoningItemParam
Descripción de la cadena de pensamiento utilizada por un modelo de razonamiento al generar una respuesta. Asegúrese de incluir estos elementos en input la API de respuestas para los turnos posteriores de una conversación si administra manualmente el contexto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encrypted_content | string | Contenido cifrado del elemento de razonamiento, rellenado cuando se genera una respuesta con reasoning.encrypted_content en el include parámetro . |
No | |
| summary | array | Contenido del texto de razonamiento. | Yes | |
| type | enum | Valores posibles: reasoning |
Yes |
OpenAI.ReasoningItemResource
Descripción de la cadena de pensamiento utilizada por un modelo de razonamiento al generar una respuesta. Asegúrese de incluir estos elementos en input la API de respuestas para los turnos posteriores de una conversación si administra manualmente el contexto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encrypted_content | string | Contenido cifrado del elemento de razonamiento, rellenado cuando se genera una respuesta con reasoning.encrypted_content en el include parámetro . |
No | |
| summary | array | Contenido del texto de razonamiento. | Yes | |
| type | enum | Valores posibles: reasoning |
Yes |
OpenAI.ReasoningItemSummaryPart
Discriminador para OpenAI.ReasoningItemSummaryPart
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
summary_text |
OpenAI.ReasoningItemSummaryTextPart |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ReasoningItemSummaryPartType | Yes |
OpenAI.ReasoningItemSummaryPartType
| Property | Value |
|---|---|
| Type | string |
| Values | summary_text |
OpenAI.ReasoningItemSummaryTextPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Yes | ||
| type | enum | Valores posibles: summary_text |
Yes |
OpenAI.Response
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | boolean | Si se va a ejecutar la respuesta del modelo en segundo plano. | No | False |
| created_at | integer | Marca de tiempo de Unix (en segundos) de cuando se creó esta respuesta. | Yes | |
| error | object | Objeto de error devuelto cuando el modelo no puede generar una respuesta. | Yes | |
| └─ code | OpenAI.ResponseErrorCode | Código de error de la respuesta. | No | |
| └─ message | string | Descripción legible del error. | No | |
| id | string | Identificador único de esta respuesta. | Yes | |
| incomplete_details | object | Detalles sobre por qué la respuesta está incompleta. | Yes | |
| └─ reason | enum | Motivo por el que la respuesta está incompleta. Valores posibles: max_output_tokens, content_filter |
No | |
| instructions | string o array | Yes | ||
| max_output_tokens | integer | Límite superior para el número de tokens que se pueden generar para una respuesta, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| max_tool_calls | integer | Número máximo de llamadas totales a herramientas integradas que se pueden procesar en una respuesta. Este número máximo se aplica en todas las llamadas a herramientas integradas, no por herramienta individual. Se omitirán todos los intentos adicionales de llamar a una herramienta por el modelo. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
Yes | |
| object | enum | El tipo de objeto de este recurso: siempre se establece en response.Valores posibles: response |
Yes | |
| output | array | Matriz de elementos de contenido generados por el modelo. - La longitud y el orden de los elementos de la output matriz dependen de la respuesta del modelo.- En lugar de acceder al primer elemento de la output matriz y suponiendo que sea un assistant mensaje con el contenido generado por el modelo, puede considerar el uso de la output_text propiedad donde se admiten en los SDK. |
Yes | |
| output_text | string | Propiedad de solo comodidad del SDK que contiene la salida de texto agregada de todos los output_text elementos de la output matriz, si hay alguno presente.Se admite en los SDK de JavaScript y Python. |
No | |
| parallel_tool_calls | boolean | Si se permite que el modelo ejecute llamadas de herramienta en paralelo. | Yes | True |
| previous_response_id | string | Identificador único de la respuesta anterior al modelo. Úselo para crear conversaciones multiturno. | No | |
| prompt | object | Referencia a una plantilla de solicitud y sus variables. | No | |
| └─ id | string | Identificador único de la plantilla de solicitud que se va a usar. | No | |
| └─ variables | OpenAI.ResponsePromptVariables | Asignación opcional de valores para sustituir por variables en el símbolo del sistema. Los valores de sustitución pueden ser cadenas u otros tipos de entrada de respuesta, como imágenes o archivos. | No | |
| └─ version | string | Versión opcional de la plantilla de solicitud. | No | |
| reasoning | object |
Solo modelos de la serie o Opciones de configuración para modelos de razonamiento. |
No | |
| └─ effort | OpenAI.ReasoningEffort |
Solo modelos de la serie o Restringe el esfuerzo en el razonamiento de los modelos de razonamiento. Actualmente, los valores admitidos son low, mediumy high. Reducir el esfuerzo de razonamiento puede dar lugar a respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta. |
No | |
| └─ generate_summary | enum |
En desuso: use summary en su lugar.Resumen del razonamiento realizado por el modelo. Esto puede ser útil para depurar y comprender el proceso de razonamiento del modelo. Uno de auto, conciseo detailed.Valores posibles: auto, concise, detailed |
No | |
| └─ summary | enum | Resumen del razonamiento realizado por el modelo. Esto puede ser útil para depurar y comprender el proceso de razonamiento del modelo. Uno de auto, conciseo detailed.Valores posibles: auto, concise, detailed |
No | |
| status | enum | Estado de la generación de respuesta. Uno de completed, failed, in_progress, cancelled, queuedo incomplete.Valores posibles: completed, failed, in_progress, cancelled, , queued, incomplete |
No | |
| temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
Yes | |
| text | object | Opciones de configuración para una respuesta de texto del modelo. Puede ser texto sin formato o datos JSON estructurados. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | object | Controla la herramienta a la que llama el modelo (si existe).none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje.auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas.required significa que el modelo debe llamar a una o varias herramientas. |
No | |
| └─ type | OpenAI.ToolChoiceObjectType | Indica que el modelo debe usar una herramienta integrada para generar una respuesta. | No | |
| tools | array | Una matriz de herramientas que el modelo puede llamar al generar una respuesta. Puede especificar qué herramienta usar estableciendo el tool_choice parámetro .Las dos categorías de herramientas que puede proporcionar son: - Herramientas integradas: herramientas proporcionadas por OpenAI que amplían las funcionalidades del modelo. |
No | |
| top_logprobs | integer | Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada. | No | |
| top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
Yes | |
| truncation | enum | Estrategia de truncamiento que se va a usar para la respuesta del modelo. - auto: si el contexto de esta respuesta y los anteriores supera el tamaño de la ventana de contexto del modelo, el modelo truncará la respuesta para ajustarse a la ventana de contexto quitando los elementos de entrada en medio de la conversación.- disabled (valor predeterminado): si una respuesta del modelo superará el tamaño de la ventana de contexto de un modelo, se producirá un error 400 en la solicitud.Valores posibles: auto, disabled |
No | |
| usage | OpenAI.ResponseUsage | Representa los detalles de uso de tokens, incluidos los tokens de entrada, los tokens de salida, un desglose de los tokens de salida y el total de tokens usados. | No | |
| user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | Yes |
OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
Se genera cuando el intérprete de código transmite un fragmento de código parcial.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Fragmento de código parcial que transmite el intérprete de código. | Yes | |
| item_id | string | Identificador único del elemento de llamada de la herramienta de intérprete de código. | Yes | |
| output_index | integer | Índice del elemento de salida en la respuesta para la que se transmite el código. | Yes | |
| type | enum | Tipo del evento. Siempre response.code_interpreter_call_code.delta.Valores posibles: response.code_interpreter_call_code.delta |
Yes |
OpenAI.ResponseCodeInterpreterCallCodeDoneEvent
Se genera cuando el intérprete de código finaliza el fragmento de código.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Resultado del fragmento de código final por el intérprete de código. | Yes | |
| item_id | string | Identificador único del elemento de llamada de la herramienta de intérprete de código. | Yes | |
| output_index | integer | Índice del elemento de salida en la respuesta para la que se finaliza el código. | Yes | |
| type | enum | Tipo del evento. Siempre response.code_interpreter_call_code.done.Valores posibles: response.code_interpreter_call_code.done |
Yes |
OpenAI.ResponseCodeInterpreterCallCompletedEvent
Se genera cuando se completa la llamada del intérprete de código.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador único del elemento de llamada de la herramienta de intérprete de código. | Yes | |
| output_index | integer | Índice del elemento de salida en la respuesta para la que se completa la llamada del intérprete de código. | Yes | |
| type | enum | Tipo del evento. Siempre response.code_interpreter_call.completed.Valores posibles: response.code_interpreter_call.completed |
Yes |
OpenAI.ResponseCodeInterpreterCallInProgressEvent
Se genera cuando una llamada al intérprete de código está en curso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador único del elemento de llamada de la herramienta de intérprete de código. | Yes | |
| output_index | integer | Índice del elemento de salida en la respuesta para la que está en curso la llamada del intérprete de código. | Yes | |
| type | enum | Tipo del evento. Siempre response.code_interpreter_call.in_progress.Valores posibles: response.code_interpreter_call.in_progress |
Yes |
OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Se genera cuando el intérprete de código interpreta activamente el fragmento de código.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador único del elemento de llamada de la herramienta de intérprete de código. | Yes | |
| output_index | integer | Índice del elemento de salida en la respuesta para la que el intérprete de código interpreta el código. | Yes | |
| type | enum | Tipo del evento. Siempre response.code_interpreter_call.interpreting.Valores posibles: response.code_interpreter_call.interpreting |
Yes |
OpenAI.ResponseCompletedEvent
Se genera cuando se completa la respuesta del modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Si se va a ejecutar la respuesta del modelo en segundo plano. | No | False |
| └─ created_at | integer | Marca de tiempo de Unix (en segundos) de cuando se creó esta respuesta. | No | |
| └─ error | OpenAI.ResponseError | Objeto de error devuelto cuando el modelo no puede generar una respuesta. | No | |
| └─ id | string | Identificador único de esta respuesta. | No | |
| └─ incomplete_details | object | Detalles sobre por qué la respuesta está incompleta. | No | |
| └─ reason | enum | Motivo por el que la respuesta está incompleta. Valores posibles: max_output_tokens, content_filter |
No | |
| └─ instructions | string o array | Mensaje del sistema (o desarrollador) insertado en el contexto del modelo. Al usar junto con previous_response_id, las instrucciones de una respuesta anterior no se transferirán a la siguiente respuesta. Esto facilita el intercambio de mensajes del sistema (o desarrollador) en nuevas respuestas. |
No | |
| └─ max_output_tokens | integer | Límite superior para el número de tokens que se pueden generar para una respuesta, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| └─ max_tool_calls | integer | Número máximo de llamadas totales a herramientas integradas que se pueden procesar en una respuesta. Este número máximo se aplica en todas las llamadas a herramientas integradas, no por herramienta individual. Se omitirán todos los intentos adicionales de llamar a una herramienta por el modelo. | No | |
| └─ metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| └─ object | enum | El tipo de objeto de este recurso: siempre se establece en response.Valores posibles: response |
No | |
| └─ output | array | Matriz de elementos de contenido generados por el modelo. - La longitud y el orden de los elementos de la output matriz dependen de la respuesta del modelo.- En lugar de acceder al primer elemento de la output matriz y suponiendo que sea un assistant mensaje con el contenido generado por el modelo, puede considerar el uso de la output_text propiedad donde se admiten en los SDK. |
No | |
| └─ output_text | string | Propiedad de solo comodidad del SDK que contiene la salida de texto agregada de todos los output_text elementos de la output matriz, si hay alguno presente.Se admite en los SDK de JavaScript y Python. |
No | |
| └─ parallel_tool_calls | boolean | Si se permite que el modelo ejecute llamadas de herramienta en paralelo. | No | True |
| └─ previous_response_id | string | Identificador único de la respuesta anterior al modelo. Úselo para crear conversaciones multiturno. | No | |
| └─ prompt | OpenAI.Prompt | Referencia a una plantilla de solicitud y sus variables. | No | |
| └─ reasoning | OpenAI.Reasoning |
Solo modelos de la serie o Opciones de configuración para modelos de razonamiento. |
No | |
| └─ status | enum | Estado de la generación de respuesta. Uno de completed, failed, in_progress, cancelled, queuedo incomplete.Valores posibles: completed, failed, in_progress, cancelled, , queued, incomplete |
No | |
| └─ temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | |
| └─ text | object | Opciones de configuración para una respuesta de texto del modelo. Puede ser texto sin formato o datos JSON estructurados. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceObject | Cómo debe seleccionar el modelo qué herramienta (o herramientas) se van a usar al generar una respuesta. Consulte el tools parámetro para ver cómo especificar las herramientas a las que puede llamar el modelo. |
No | |
| └─ tools | array | Una matriz de herramientas que el modelo puede llamar al generar una respuesta. Puede especificar qué herramienta usar estableciendo el tool_choice parámetro .Las dos categorías de herramientas que puede proporcionar son: - Herramientas integradas: herramientas proporcionadas por OpenAI que amplían las funcionalidades del modelo. |
No | |
| └─ top_logprobs | integer | Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada. | No | |
| └─ top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | |
| └─ truncation | enum | Estrategia de truncamiento que se va a usar para la respuesta del modelo. - auto: si el contexto de esta respuesta y los anteriores supera el tamaño de la ventana de contexto del modelo, el modelo truncará la respuesta para ajustarse a la ventana de contexto quitando los elementos de entrada en medio de la conversación.- disabled (valor predeterminado): si una respuesta del modelo superará el tamaño de la ventana de contexto de un modelo, se producirá un error 400 en la solicitud.Valores posibles: auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Representa los detalles de uso de tokens, incluidos los tokens de entrada, los tokens de salida, un desglose de los tokens de salida y el total de tokens usados. | No | |
| └─ user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | No | |
| type | enum | Tipo del evento. Siempre response.completed.Valores posibles: response.completed |
Yes |
OpenAI.ResponseContentPartAddedEvent
Se genera cuando se agrega una nueva parte de contenido.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Índice del elemento de contenido que se agregó. | Yes | |
| item_id | string | Identificador del elemento de salida al que se agregó la parte de contenido. | Yes | |
| output_index | integer | Índice del elemento de salida al que se agregó la parte de contenido. | Yes | |
| part | object | Yes | ||
| └─ type | OpenAI.ItemContentType | Contenido de entrada y salida multi modal. | No | |
| type | enum | Tipo del evento. Siempre response.content_part.added.Valores posibles: response.content_part.added |
Yes |
OpenAI.ResponseContentPartDoneEvent
Se genera cuando se realiza una parte de contenido.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Índice de la parte de contenido que se realiza. | Yes | |
| item_id | string | Identificador del elemento de salida al que se agregó la parte de contenido. | Yes | |
| output_index | integer | Índice del elemento de salida al que se agregó la parte de contenido. | Yes | |
| part | object | Yes | ||
| └─ type | OpenAI.ItemContentType | Contenido de entrada y salida multi modal. | No | |
| type | enum | Tipo del evento. Siempre response.content_part.done.Valores posibles: response.content_part.done |
Yes |
OpenAI.ResponseCreatedEvent
Evento que se genera cuando se crea una respuesta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Si se va a ejecutar la respuesta del modelo en segundo plano. | No | False |
| └─ created_at | integer | Marca de tiempo de Unix (en segundos) de cuando se creó esta respuesta. | No | |
| └─ error | OpenAI.ResponseError | Objeto de error devuelto cuando el modelo no puede generar una respuesta. | No | |
| └─ id | string | Identificador único de esta respuesta. | No | |
| └─ incomplete_details | object | Detalles sobre por qué la respuesta está incompleta. | No | |
| └─ reason | enum | Motivo por el que la respuesta está incompleta. Valores posibles: max_output_tokens, content_filter |
No | |
| └─ instructions | string o array | Mensaje del sistema (o desarrollador) insertado en el contexto del modelo. Al usar junto con previous_response_id, las instrucciones de una respuesta anterior no se transferirán a la siguiente respuesta. Esto facilita el intercambio de mensajes del sistema (o desarrollador) en nuevas respuestas. |
No | |
| └─ max_output_tokens | integer | Límite superior para el número de tokens que se pueden generar para una respuesta, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| └─ max_tool_calls | integer | Número máximo de llamadas totales a herramientas integradas que se pueden procesar en una respuesta. Este número máximo se aplica en todas las llamadas a herramientas integradas, no por herramienta individual. Se omitirán todos los intentos adicionales de llamar a una herramienta por el modelo. | No | |
| └─ metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| └─ object | enum | El tipo de objeto de este recurso: siempre se establece en response.Valores posibles: response |
No | |
| └─ output | array | Matriz de elementos de contenido generados por el modelo. - La longitud y el orden de los elementos de la output matriz dependen de la respuesta del modelo.- En lugar de acceder al primer elemento de la output matriz y suponiendo que sea un assistant mensaje con el contenido generado por el modelo, puede considerar el uso de la output_text propiedad donde se admiten en los SDK. |
No | |
| └─ output_text | string | Propiedad de solo comodidad del SDK que contiene la salida de texto agregada de todos los output_text elementos de la output matriz, si hay alguno presente.Se admite en los SDK de JavaScript y Python. |
No | |
| └─ parallel_tool_calls | boolean | Si se permite que el modelo ejecute llamadas de herramienta en paralelo. | No | True |
| └─ previous_response_id | string | Identificador único de la respuesta anterior al modelo. Úselo para crear conversaciones multiturno. | No | |
| └─ prompt | OpenAI.Prompt | Referencia a una plantilla de solicitud y sus variables. | No | |
| └─ reasoning | OpenAI.Reasoning |
Solo modelos de la serie o Opciones de configuración para modelos de razonamiento. |
No | |
| └─ status | enum | Estado de la generación de respuesta. Uno de completed, , failedin_progress, cancelled, queuedo incomplete.Valores posibles: completed, failed, in_progress, cancelled, , queued, incomplete |
No | |
| └─ temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | |
| └─ text | object | Opciones de configuración para una respuesta de texto del modelo. Puede ser texto sin formato o datos JSON estructurados. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceObject | Cómo debe seleccionar el modelo qué herramienta (o herramientas) se van a usar al generar una respuesta. Consulte el tools parámetro para ver cómo especificar las herramientas a las que puede llamar el modelo. |
No | |
| └─ tools | array | Una matriz de herramientas que el modelo puede llamar al generar una respuesta. Puede especificar qué herramienta usar estableciendo el tool_choice parámetro .Las dos categorías de herramientas que puede proporcionar son: - Herramientas integradas: herramientas proporcionadas por OpenAI que amplían las funcionalidades del modelo. |
No | |
| └─ top_logprobs | integer | Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada. | No | |
| └─ top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | |
| └─ truncation | enum | Estrategia de truncamiento que se va a usar para la respuesta del modelo. - auto: si el contexto de esta respuesta y los anteriores supera el tamaño de la ventana de contexto del modelo, el modelo truncará la respuesta para ajustarse a la ventana de contexto quitando los elementos de entrada en medio de la conversación.- disabled (valor predeterminado): si una respuesta del modelo superará el tamaño de la ventana de contexto de un modelo, se producirá un error 400 en la solicitud.Valores posibles: auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Representa los detalles de uso de tokens, incluidos los tokens de entrada, los tokens de salida, un desglose de los tokens de salida y el total de tokens usados. | No | |
| └─ user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | No | |
| type | enum | Tipo del evento. Siempre response.created.Valores posibles: response.created |
Yes |
OpenAI.ResponseError
Objeto de error devuelto cuando el modelo no puede generar una respuesta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | OpenAI.ResponseErrorCode | Código de error de la respuesta. | Yes | |
| message | string | Descripción legible del error. | Yes |
OpenAI.ResponseErrorCode
Código de error de la respuesta.
| Property | Value |
|---|---|
| Description | Código de error de la respuesta. |
| Type | string |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
OpenAI.ResponseErrorEvent
Se genera cuando se produce un error.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Código de error. | Yes | |
| message | string | Mensaje de error. | Yes | |
| param | string | Parámetro de error. | Yes | |
| type | enum | Tipo del evento. Siempre error.Valores posibles: error |
Yes |
OpenAI.ResponseFailedEvent
Evento que se genera cuando se produce un error en una respuesta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Si se va a ejecutar la respuesta del modelo en segundo plano. | No | False |
| └─ created_at | integer | Marca de tiempo de Unix (en segundos) de cuando se creó esta respuesta. | No | |
| └─ error | OpenAI.ResponseError | Objeto de error devuelto cuando el modelo no puede generar una respuesta. | No | |
| └─ id | string | Identificador único de esta respuesta. | No | |
| └─ incomplete_details | object | Detalles sobre por qué la respuesta está incompleta. | No | |
| └─ reason | enum | Motivo por el que la respuesta está incompleta. Valores posibles: max_output_tokens, content_filter |
No | |
| └─ instructions | string o array | Mensaje del sistema (o desarrollador) insertado en el contexto del modelo. Al usar junto con previous_response_id, las instrucciones de una respuesta anterior no se transferirán a la siguiente respuesta. Esto facilita el intercambio de mensajes del sistema (o desarrollador) en nuevas respuestas. |
No | |
| └─ max_output_tokens | integer | Límite superior para el número de tokens que se pueden generar para una respuesta, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| └─ max_tool_calls | integer | Número máximo de llamadas totales a herramientas integradas que se pueden procesar en una respuesta. Este número máximo se aplica en todas las llamadas a herramientas integradas, no por herramienta individual. Se omitirán todos los intentos adicionales de llamar a una herramienta por el modelo. | No | |
| └─ metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| └─ object | enum | El tipo de objeto de este recurso: siempre se establece en response.Valores posibles: response |
No | |
| └─ output | array | Matriz de elementos de contenido generados por el modelo. - La longitud y el orden de los elementos de la output matriz dependen de la respuesta del modelo.- En lugar de acceder al primer elemento de la output matriz y suponiendo que sea un assistant mensaje con el contenido generado por el modelo, puede considerar el uso de la output_text propiedad donde se admiten en los SDK. |
No | |
| └─ output_text | string | Propiedad de solo comodidad del SDK que contiene la salida de texto agregada de todos los output_text elementos de la output matriz, si hay alguno presente.Se admite en los SDK de JavaScript y Python. |
No | |
| └─ parallel_tool_calls | boolean | Si se permite que el modelo ejecute llamadas de herramienta en paralelo. | No | True |
| └─ previous_response_id | string | Identificador único de la respuesta anterior al modelo. Úselo para crear conversaciones multiturno. | No | |
| └─ prompt | OpenAI.Prompt | Referencia a una plantilla de solicitud y sus variables. | No | |
| └─ reasoning | OpenAI.Reasoning |
Solo modelos de la serie o Opciones de configuración para modelos de razonamiento. |
No | |
| └─ status | enum | Estado de la generación de respuesta. Uno de completed, failed, in_progress, cancelled, queuedo incomplete.Valores posibles: completed, failed, in_progress, cancelled, , queued, incomplete |
No | |
| └─ temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | |
| └─ text | object | Opciones de configuración para una respuesta de texto del modelo. Puede ser texto sin formato o datos JSON estructurados. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceObject | Cómo debe seleccionar el modelo qué herramienta (o herramientas) se van a usar al generar una respuesta. Consulte el tools parámetro para ver cómo especificar las herramientas a las que puede llamar el modelo. |
No | |
| └─ tools | array | Una matriz de herramientas que el modelo puede llamar al generar una respuesta. Puede especificar qué herramienta usar estableciendo el tool_choice parámetro .Las dos categorías de herramientas que puede proporcionar son: - Herramientas integradas: herramientas proporcionadas por OpenAI que amplían las funcionalidades del modelo. |
No | |
| └─ top_logprobs | integer | Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada. | No | |
| └─ top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | |
| └─ truncation | enum | Estrategia de truncamiento que se va a usar para la respuesta del modelo. - auto: si el contexto de esta respuesta y los anteriores supera el tamaño de la ventana de contexto del modelo, el modelo truncará la respuesta para ajustarse a la ventana de contexto quitando los elementos de entrada en medio de la conversación.- disabled (valor predeterminado): si una respuesta del modelo superará el tamaño de la ventana de contexto de un modelo, se producirá un error 400 en la solicitud.Valores posibles: auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Representa los detalles de uso de tokens, incluidos los tokens de entrada, los tokens de salida, un desglose de los tokens de salida y el total de tokens usados. | No | |
| └─ user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | No | |
| type | enum | Tipo del evento. Siempre response.failed.Valores posibles: response.failed |
Yes |
OpenAI.ResponseFileSearchCallCompletedEvent
Se genera cuando se completa una llamada de búsqueda de archivos (resultados encontrados).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador del elemento de salida que se inicia la llamada de búsqueda de archivos. | Yes | |
| output_index | integer | Índice del elemento de salida que se inicia la llamada de búsqueda de archivos. | Yes | |
| type | enum | Tipo del evento. Siempre response.file_search_call.completed.Valores posibles: response.file_search_call.completed |
Yes |
OpenAI.ResponseFileSearchCallInProgressEvent
Se genera cuando se inicia una llamada de búsqueda de archivos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador del elemento de salida que se inicia la llamada de búsqueda de archivos. | Yes | |
| output_index | integer | Índice del elemento de salida que se inicia la llamada de búsqueda de archivos. | Yes | |
| type | enum | Tipo del evento. Siempre response.file_search_call.in_progress.Valores posibles: response.file_search_call.in_progress |
Yes |
OpenAI.ResponseFileSearchCallSearchingEvent
Se genera cuando una búsqueda de archivos está buscando actualmente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador del elemento de salida que se inicia la llamada de búsqueda de archivos. | Yes | |
| output_index | integer | Índice del elemento de salida en el que se está buscando la llamada de búsqueda de archivos. | Yes | |
| type | enum | Tipo del evento. Siempre response.file_search_call.searching.Valores posibles: response.file_search_call.searching |
Yes |
OpenAI.ResponseFormat
Discriminador para OpenAI.ResponseFormat
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
text |
OpenAI.ResponseFormatText |
json_object |
OpenAI.ResponseFormatJsonObject |
json_schema |
OpenAI.ResponseFormatJsonSchema |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valores posibles: text, json_object, json_schema |
Yes |
OpenAI.ResponseFormatJsonObject
Formato de respuesta de objeto JSON. Un método anterior para generar respuestas JSON.
Se recomienda usar json_schema para los modelos que lo admiten. Tenga en cuenta que el modelo no generará JSON sin un mensaje de usuario o sistema que le indique que lo haga.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo de formato de respuesta que se va a definir. Siempre json_object.Valores posibles: json_object |
Yes |
OpenAI.ResponseFormatJsonSchema
Formato de respuesta de esquema JSON. Se usa para generar respuestas JSON estructuradas.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | Opciones de configuración de salidas estructuradas, incluido un esquema JSON. | Yes | |
| └─ description | string | Descripción del formato de respuesta que usa el modelo para determinar cómo responder en el formato. | No | |
| └─ name | string | Nombre del formato de respuesta. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64. | No | |
| └─ schema | OpenAI.ResponseFormatJsonSchemaSchema | Esquema para el formato de respuesta, descrito como un objeto de esquema JSON. Obtenga información sobre cómo compilar esquemas JSON aquí. |
No | |
| └─ strict | boolean | Indica si se debe habilitar la adhesión estricta al esquema al generar la salida. Si se establece en true, el modelo siempre seguirá el esquema exacto definido en el schema campo. Solo se admite un subconjunto de esquema JSON cuando strict es true. |
No | False |
| type | enum | Tipo de formato de respuesta que se va a definir. Siempre json_schema.Valores posibles: json_schema |
Yes |
OpenAI.ResponseFormatJsonSchemaSchema
Esquema para el formato de respuesta, descrito como un objeto de esquema JSON. Obtenga información sobre cómo compilar esquemas JSON aquí.
Type: object
OpenAI.ResponseFormatText
Formato de respuesta predeterminado. Se usa para generar respuestas de texto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo de formato de respuesta que se va a definir. Siempre text.Valores posibles: text |
Yes |
OpenAI.ResponseFunctionCallArgumentsDeltaEvent
Se genera cuando hay un delta de argumentos de llamada a función parciales.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Los argumentos de llamada a función delta que se agregan. | Yes | |
| item_id | string | Identificador del elemento de salida al que se agrega el delta de argumentos de llamada de función. | Yes | |
| output_index | integer | Índice del elemento de salida al que se agrega el delta de argumentos de llamada de función. | Yes | |
| type | enum | Tipo del evento. Siempre response.function_call_arguments.delta.Valores posibles: response.function_call_arguments.delta |
Yes |
OpenAI.ResponseFunctionCallArgumentsDoneEvent
Se genera cuando se finalizan los argumentos de llamada de función.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Argumentos de llamada de función. | Yes | |
| item_id | string | Identificador del elemento. | Yes | |
| output_index | integer | Índice del elemento de salida. | Yes | |
| type | enum | Valores posibles: response.function_call_arguments.done |
Yes |
OpenAI.ResponseImageGenCallCompletedEvent
Se genera cuando se ha completado una llamada a la herramienta de generación de imágenes y la imagen final está disponible.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador único del elemento de generación de imágenes que se está procesando. | Yes | |
| output_index | integer | Índice del elemento de salida de la matriz de salida de la respuesta. | Yes | |
| type | enum | Tipo del evento. Always 'response.image_generation_call.completed'. Valores posibles: response.image_generation_call.completed |
Yes |
OpenAI.ResponseImageGenCallGeneratingEvent
Se genera cuando una llamada a la herramienta de generación de imágenes genera activamente una imagen (estado intermedio).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador único del elemento de generación de imágenes que se está procesando. | Yes | |
| output_index | integer | Índice del elemento de salida de la matriz de salida de la respuesta. | Yes | |
| type | enum | Tipo del evento. Always 'response.image_generation_call.generating'. Valores posibles: response.image_generation_call.generating |
Yes |
OpenAI.ResponseImageGenCallInProgressEvent
Se genera cuando una llamada a la herramienta de generación de imágenes está en curso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador único del elemento de generación de imágenes que se está procesando. | Yes | |
| output_index | integer | Índice del elemento de salida de la matriz de salida de la respuesta. | Yes | |
| type | enum | Tipo del evento. Always 'response.image_generation_call.in_progress'. Valores posibles: response.image_generation_call.in_progress |
Yes |
OpenAI.ResponseImageGenCallPartialImageEvent
Se genera cuando una imagen parcial está disponible durante el streaming de generación de imágenes.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador único del elemento de generación de imágenes que se está procesando. | Yes | |
| output_index | integer | Índice del elemento de salida de la matriz de salida de la respuesta. | Yes | |
| partial_image_b64 | string | Datos de imagen parcial codificados en Base64, adecuados para la representación como una imagen. | Yes | |
| partial_image_index | integer | Índice basado en 0 para la imagen parcial (el back-end está basado en 1, pero se basa en 0 para el usuario). | Yes | |
| type | enum | Tipo del evento. Always 'response.image_generation_call.partial_image'. Valores posibles: response.image_generation_call.partial_image |
Yes |
OpenAI.ResponseInProgressEvent
Se genera cuando la respuesta está en curso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Si se va a ejecutar la respuesta del modelo en segundo plano. | No | False |
| └─ created_at | integer | Marca de tiempo de Unix (en segundos) de cuando se creó esta respuesta. | No | |
| └─ error | OpenAI.ResponseError | Objeto de error devuelto cuando el modelo no puede generar una respuesta. | No | |
| └─ id | string | Identificador único de esta respuesta. | No | |
| └─ incomplete_details | object | Detalles sobre por qué la respuesta está incompleta. | No | |
| └─ reason | enum | Motivo por el que la respuesta está incompleta. Valores posibles: max_output_tokens, content_filter |
No | |
| └─ instructions | string o array | Mensaje del sistema (o desarrollador) insertado en el contexto del modelo. Al usar junto con previous_response_id, las instrucciones de una respuesta anterior no se transferirán a la siguiente respuesta. Esto facilita el intercambio de mensajes del sistema (o desarrollador) en nuevas respuestas. |
No | |
| └─ max_output_tokens | integer | Límite superior para el número de tokens que se pueden generar para una respuesta, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| └─ max_tool_calls | integer | Número máximo de llamadas totales a herramientas integradas que se pueden procesar en una respuesta. Este número máximo se aplica en todas las llamadas a herramientas integradas, no por herramienta individual. Se omitirán todos los intentos adicionales de llamar a una herramienta por el modelo. | No | |
| └─ metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| └─ object | enum | El tipo de objeto de este recurso: siempre se establece en response.Valores posibles: response |
No | |
| └─ output | array | Matriz de elementos de contenido generados por el modelo. - La longitud y el orden de los elementos de la output matriz dependen de la respuesta del modelo.- En lugar de acceder al primer elemento de la output matriz y suponiendo que sea un assistant mensaje con el contenido generado por el modelo, puede considerar el uso de la output_text propiedad donde se admiten en los SDK. |
No | |
| └─ output_text | string | Propiedad de solo comodidad del SDK que contiene la salida de texto agregada de todos los output_text elementos de la output matriz, si hay alguno presente.Se admite en los SDK de JavaScript y Python. |
No | |
| └─ parallel_tool_calls | boolean | Si se permite que el modelo ejecute llamadas de herramienta en paralelo. | No | True |
| └─ previous_response_id | string | Identificador único de la respuesta anterior al modelo. Úselo para crear conversaciones multiturno. | No | |
| └─ prompt | OpenAI.Prompt | Referencia a una plantilla de solicitud y sus variables. | No | |
| └─ reasoning | OpenAI.Reasoning |
Solo modelos de la serie o Opciones de configuración para modelos de razonamiento. |
No | |
| └─ status | enum | Estado de la generación de respuesta. Uno de completed, failed, in_progress, cancelled, queuedo incomplete.Valores posibles: completed, failed, in_progress, cancelled, , queued, incomplete |
No | |
| └─ temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | |
| └─ text | object | Opciones de configuración para una respuesta de texto del modelo. Puede ser texto sin formato o datos JSON estructurados. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceObject | Cómo debe seleccionar el modelo qué herramienta (o herramientas) se van a usar al generar una respuesta. Consulte el tools parámetro para ver cómo especificar las herramientas a las que puede llamar el modelo. |
No | |
| └─ tools | array | Una matriz de herramientas que el modelo puede llamar al generar una respuesta. Puede especificar qué herramienta usar estableciendo el tool_choice parámetro .Las dos categorías de herramientas que puede proporcionar son: - Herramientas integradas: herramientas proporcionadas por OpenAI que amplían las funcionalidades del modelo. |
No | |
| └─ top_logprobs | integer | Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada. | No | |
| └─ top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | |
| └─ truncation | enum | Estrategia de truncamiento que se va a usar para la respuesta del modelo. - auto: si el contexto de esta respuesta y los anteriores supera el tamaño de la ventana de contexto del modelo, el modelo truncará la respuesta para ajustarse a la ventana de contexto quitando los elementos de entrada en medio de la conversación.- disabled (valor predeterminado): si una respuesta del modelo superará el tamaño de la ventana de contexto de un modelo, se producirá un error 400 en la solicitud.Valores posibles: auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Representa los detalles de uso de tokens, incluidos los tokens de entrada, los tokens de salida, un desglose de los tokens de salida y el total de tokens usados. | No | |
| └─ user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | No | |
| type | enum | Tipo del evento. Siempre response.in_progress.Valores posibles: response.in_progress |
Yes |
OpenAI.ResponseIncompleteEvent
Evento que se genera cuando una respuesta finaliza como incompleta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Si se va a ejecutar la respuesta del modelo en segundo plano. | No | False |
| └─ created_at | integer | Marca de tiempo de Unix (en segundos) de cuando se creó esta respuesta. | No | |
| └─ error | OpenAI.ResponseError | Objeto de error devuelto cuando el modelo no puede generar una respuesta. | No | |
| └─ id | string | Identificador único de esta respuesta. | No | |
| └─ incomplete_details | object | Detalles sobre por qué la respuesta está incompleta. | No | |
| └─ reason | enum | Motivo por el que la respuesta está incompleta. Valores posibles: max_output_tokens, content_filter |
No | |
| └─ instructions | string o array | Mensaje del sistema (o desarrollador) insertado en el contexto del modelo. Al usar junto con previous_response_id, las instrucciones de una respuesta anterior no se transferirán a la siguiente respuesta. Esto facilita el intercambio de mensajes del sistema (o desarrollador) en nuevas respuestas. |
No | |
| └─ max_output_tokens | integer | Límite superior para el número de tokens que se pueden generar para una respuesta, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| └─ max_tool_calls | integer | Número máximo de llamadas totales a herramientas integradas que se pueden procesar en una respuesta. Este número máximo se aplica en todas las llamadas a herramientas integradas, no por herramienta individual. Se omitirán todos los intentos adicionales de llamar a una herramienta por el modelo. | No | |
| └─ metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| └─ object | enum | El tipo de objeto de este recurso: siempre se establece en response.Valores posibles: response |
No | |
| └─ output | array | Matriz de elementos de contenido generados por el modelo. - La longitud y el orden de los elementos de la output matriz dependen de la respuesta del modelo.- En lugar de acceder al primer elemento de la output matriz y suponiendo que sea un assistant mensaje con el contenido generado por el modelo, puede considerar el uso de la output_text propiedad donde se admiten en los SDK. |
No | |
| └─ output_text | string | Propiedad de solo comodidad del SDK que contiene la salida de texto agregada de todos los output_text elementos de la output matriz, si hay alguno presente.Se admite en los SDK de JavaScript y Python. |
No | |
| └─ parallel_tool_calls | boolean | Si se permite que el modelo ejecute llamadas de herramienta en paralelo. | No | True |
| └─ previous_response_id | string | Identificador único de la respuesta anterior al modelo. Úselo para crear conversaciones multiturno. | No | |
| └─ prompt | OpenAI.Prompt | Referencia a una plantilla de solicitud y sus variables. | No | |
| └─ reasoning | OpenAI.Reasoning |
Solo modelos de la serie o Opciones de configuración para modelos de razonamiento. |
No | |
| └─ status | enum | Estado de la generación de respuesta. Uno de completed, failed, in_progress, cancelled, queuedo incomplete.Valores posibles: completed, failed, in_progress, cancelled, , queued, incomplete |
No | |
| └─ temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | |
| └─ text | object | Opciones de configuración para una respuesta de texto del modelo. Puede ser texto sin formato o datos JSON estructurados. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceObject | Cómo debe seleccionar el modelo qué herramienta (o herramientas) se van a usar al generar una respuesta. Consulte el tools parámetro para ver cómo especificar las herramientas a las que puede llamar el modelo. |
No | |
| └─ tools | array | Una matriz de herramientas que el modelo puede llamar al generar una respuesta. Puede especificar qué herramienta usar estableciendo el tool_choice parámetro .Las dos categorías de herramientas que puede proporcionar son: - Herramientas integradas: herramientas proporcionadas por OpenAI que amplían las funcionalidades del modelo. |
No | |
| └─ top_logprobs | integer | Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada. | No | |
| └─ top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | |
| └─ truncation | enum | Estrategia de truncamiento que se va a usar para la respuesta del modelo. - auto: si el contexto de esta respuesta y los anteriores supera el tamaño de la ventana de contexto del modelo, el modelo truncará la respuesta para ajustarse a la ventana de contexto quitando los elementos de entrada en medio de la conversación.- disabled (valor predeterminado): si una respuesta del modelo superará el tamaño de la ventana de contexto de un modelo, se producirá un error 400 en la solicitud.Valores posibles: auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Representa los detalles de uso de tokens, incluidos los tokens de entrada, los tokens de salida, un desglose de los tokens de salida y el total de tokens usados. | No | |
| └─ user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | No | |
| type | enum | Tipo del evento. Siempre response.incomplete.Valores posibles: response.incomplete |
Yes |
OpenAI.ResponseItemList
Lista de elementos de respuesta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Lista de elementos usados para generar esta respuesta. | Yes | |
| first_id | string | Identificador del primer elemento de la lista. | Yes | |
| has_more | boolean | Si hay más elementos disponibles. | Yes | |
| last_id | string | Identificador del último elemento de la lista. | Yes | |
| object | enum | El tipo de objeto devuelto debe ser list.Valores posibles: list |
Yes |
OpenAI.ResponseMCPCallArgumentsDeltaEvent
Se genera cuando hay una diferencia (actualización parcial) a los argumentos de una llamada a la herramienta MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | Actualización parcial de los argumentos de la llamada a la herramienta MCP. | Yes | ||
| item_id | string | Identificador único del elemento de llamada a la herramienta MCP que se está procesando. | Yes | |
| output_index | integer | Índice del elemento de salida de la matriz de salida de la respuesta. | Yes | |
| type | enum | Tipo del evento. Always 'response.mcp_call.arguments_delta'. Valores posibles: response.mcp_call.arguments_delta |
Yes |
OpenAI.ResponseMCPCallArgumentsDoneEvent
Se genera cuando se finalizan los argumentos de una llamada a la herramienta MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | Argumentos finalizados para la llamada a la herramienta MCP. | Yes | ||
| item_id | string | Identificador único del elemento de llamada a la herramienta MCP que se está procesando. | Yes | |
| output_index | integer | Índice del elemento de salida de la matriz de salida de la respuesta. | Yes | |
| type | enum | Tipo del evento. Always 'response.mcp_call.arguments_done'. Valores posibles: response.mcp_call.arguments_done |
Yes |
OpenAI.ResponseMCPCallCompletedEvent
Se genera cuando una llamada a la herramienta MCP se ha completado correctamente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo del evento. Always 'response.mcp_call.completed'. Valores posibles: response.mcp_call.completed |
Yes |
OpenAI.ResponseMCPCallFailedEvent
Se genera cuando se produce un error en una llamada a la herramienta MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo del evento. Always 'response.mcp_call.failed'. Valores posibles: response.mcp_call.failed |
Yes |
OpenAI.ResponseMCPCallInProgressEvent
Se genera cuando una llamada a la herramienta MCP está en curso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador único del elemento de llamada a la herramienta MCP que se está procesando. | Yes | |
| output_index | integer | Índice del elemento de salida de la matriz de salida de la respuesta. | Yes | |
| type | enum | Tipo del evento. Always 'response.mcp_call.in_progress'. Valores posibles: response.mcp_call.in_progress |
Yes |
OpenAI.ResponseMCPListToolsCompletedEvent
Se genera cuando se ha recuperado correctamente la lista de herramientas de MCP disponibles.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo del evento. Always 'response.mcp_list_tools.completed'. Valores posibles: response.mcp_list_tools.completed |
Yes |
OpenAI.ResponseMCPListToolsFailedEvent
Se genera cuando se produce un error en el intento de enumerar las herramientas de MCP disponibles.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo del evento. Always 'response.mcp_list_tools.failed'. Valores posibles: response.mcp_list_tools.failed |
Yes |
OpenAI.ResponseMCPListToolsInProgressEvent
Se genera cuando el sistema está en proceso de recuperar la lista de herramientas de MCP disponibles.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo del evento. Always 'response.mcp_list_tools.in_progress'. Valores posibles: response.mcp_list_tools.in_progress |
Yes |
OpenAI.ResponseOutputItemAddedEvent
Se genera cuando se agrega un nuevo elemento de salida.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | object | Elemento de contenido usado para generar una respuesta. | Yes | |
| └─ id | string | No | ||
| └─ type | OpenAI.ItemType | No | ||
| output_index | integer | Índice del elemento de salida que se agregó. | Yes | |
| type | enum | Tipo del evento. Siempre response.output_item.added.Valores posibles: response.output_item.added |
Yes |
OpenAI.ResponseOutputItemDoneEvent
Se genera cuando se marca un elemento de salida.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | object | Elemento de contenido usado para generar una respuesta. | Yes | |
| └─ id | string | No | ||
| └─ type | OpenAI.ItemType | No | ||
| output_index | integer | Índice del elemento de salida marcado. | Yes | |
| type | enum | Tipo del evento. Siempre response.output_item.done.Valores posibles: response.output_item.done |
Yes |
OpenAI.ResponsePromptVariables
Asignación opcional de valores para sustituir por variables en el símbolo del sistema. Los valores de sustitución pueden ser cadenas u otros tipos de entrada de respuesta, como imágenes o archivos.
Type: object
OpenAI.ResponseQueuedEvent
Se genera cuando se pone en cola una respuesta y se espera a que se procese.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Si se va a ejecutar la respuesta del modelo en segundo plano. | No | False |
| └─ created_at | integer | Marca de tiempo de Unix (en segundos) de cuando se creó esta respuesta. | No | |
| └─ error | OpenAI.ResponseError | Objeto de error devuelto cuando el modelo no puede generar una respuesta. | No | |
| └─ id | string | Identificador único de esta respuesta. | No | |
| └─ incomplete_details | object | Detalles sobre por qué la respuesta está incompleta. | No | |
| └─ reason | enum | Motivo por el que la respuesta está incompleta. Valores posibles: max_output_tokens, content_filter |
No | |
| └─ instructions | string o array | Mensaje del sistema (o desarrollador) insertado en el contexto del modelo. Al usar junto con previous_response_id, las instrucciones de una respuesta anterior no se transferirán a la siguiente respuesta. Esto facilita el intercambio de mensajes del sistema (o desarrollador) en nuevas respuestas. |
No | |
| └─ max_output_tokens | integer | Límite superior para el número de tokens que se pueden generar para una respuesta, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| └─ max_tool_calls | integer | Número máximo de llamadas totales a herramientas integradas que se pueden procesar en una respuesta. Este número máximo se aplica en todas las llamadas a herramientas integradas, no por herramienta individual. Se omitirán todos los intentos adicionales de llamar a una herramienta por el modelo. | No | |
| └─ metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| └─ object | enum | El tipo de objeto de este recurso: siempre se establece en response.Valores posibles: response |
No | |
| └─ output | array | Matriz de elementos de contenido generados por el modelo. - La longitud y el orden de los elementos de la output matriz dependen de la respuesta del modelo.- En lugar de acceder al primer elemento de la output matriz y suponiendo que sea un assistant mensaje con el contenido generado por el modelo, puede considerar el uso de la output_text propiedad donde se admiten en los SDK. |
No | |
| └─ output_text | string | Propiedad de solo comodidad del SDK que contiene la salida de texto agregada de todos los output_text elementos de la output matriz, si hay alguno presente.Se admite en los SDK de JavaScript y Python. |
No | |
| └─ parallel_tool_calls | boolean | Si se permite que el modelo ejecute llamadas de herramienta en paralelo. | No | True |
| └─ previous_response_id | string | Identificador único de la respuesta anterior al modelo. Úselo para crear conversaciones multiturno. | No | |
| └─ prompt | OpenAI.Prompt | Referencia a una plantilla de solicitud y sus variables. | No | |
| └─ reasoning | OpenAI.Reasoning |
Solo modelos de la serie o Opciones de configuración para modelos de razonamiento. |
No | |
| └─ status | enum | Estado de la generación de respuesta. Uno de completed, failed, in_progress, cancelled, queuedo incomplete.Valores posibles: completed, failed, in_progress, cancelled, , queued, incomplete |
No | |
| └─ temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | |
| └─ text | object | Opciones de configuración para una respuesta de texto del modelo. Puede ser texto sin formato o datos JSON estructurados. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceObject | Cómo debe seleccionar el modelo qué herramienta (o herramientas) se van a usar al generar una respuesta. Consulte el tools parámetro para ver cómo especificar las herramientas a las que puede llamar el modelo. |
No | |
| └─ tools | array | Una matriz de herramientas que el modelo puede llamar al generar una respuesta. Puede especificar qué herramienta usar estableciendo el tool_choice parámetro .Las dos categorías de herramientas que puede proporcionar son: - Herramientas integradas: herramientas proporcionadas por OpenAI que amplían las funcionalidades del modelo. |
No | |
| └─ top_logprobs | integer | Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada. | No | |
| └─ top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | |
| └─ truncation | enum | Estrategia de truncamiento que se va a usar para la respuesta del modelo. - auto: si el contexto de esta respuesta y los anteriores supera el tamaño de la ventana de contexto del modelo, el modelo truncará la respuesta para ajustarse a la ventana de contexto quitando los elementos de entrada en medio de la conversación.- disabled (valor predeterminado): si una respuesta del modelo superará el tamaño de la ventana de contexto de un modelo, se producirá un error 400 en la solicitud.Valores posibles: auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Representa los detalles de uso de tokens, incluidos los tokens de entrada, los tokens de salida, un desglose de los tokens de salida y el total de tokens usados. | No | |
| └─ user | string | Identificador único que representa al usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. | No | |
| type | enum | Tipo del evento. Always 'response.queued'. Valores posibles: response.queued |
Yes |
OpenAI.ResponseReasoningDeltaEvent
Se genera cuando hay una diferencia (actualización parcial) al contenido de razonamiento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Índice de la parte de contenido de razonamiento dentro del elemento de salida. | Yes | |
| delta | Actualización parcial del contenido de razonamiento. | Yes | ||
| item_id | string | Identificador único del elemento para el que se actualiza el razonamiento. | Yes | |
| output_index | integer | Índice del elemento de salida de la matriz de salida de la respuesta. | Yes | |
| type | enum | Tipo del evento. Always 'response.reasoning.delta'. Valores posibles: response.reasoning.delta |
Yes |
OpenAI.ResponseReasoningDoneEvent
Se genera cuando el contenido de razonamiento se finaliza para un elemento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Índice de la parte de contenido de razonamiento dentro del elemento de salida. | Yes | |
| item_id | string | Identificador único del elemento para el que se finaliza el razonamiento. | Yes | |
| output_index | integer | Índice del elemento de salida de la matriz de salida de la respuesta. | Yes | |
| text | string | Texto de razonamiento finalizado. | Yes | |
| type | enum | Tipo del evento. Always 'response.reasoning.done'. Valores posibles: response.reasoning.done |
Yes |
OpenAI.ResponseReasoningSummaryDeltaEvent
Se genera cuando hay una diferencia (actualización parcial) al contenido de resumen de razonamiento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | Actualización parcial del contenido de resumen de razonamiento. | Yes | ||
| item_id | string | Identificador único del elemento para el que se actualiza el resumen de razonamiento. | Yes | |
| output_index | integer | Índice del elemento de salida de la matriz de salida de la respuesta. | Yes | |
| summary_index | integer | Índice del elemento de resumen dentro del elemento de salida. | Yes | |
| type | enum | Tipo del evento. Always 'response.reasoning_summary.delta'. Valores posibles: response.reasoning_summary.delta |
Yes |
OpenAI.ResponseReasoningSummaryDoneEvent
Se genera cuando el contenido de resumen de razonamiento se finaliza para un elemento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador único del elemento para el que se finaliza el resumen de razonamiento. | Yes | |
| output_index | integer | Índice del elemento de salida de la matriz de salida de la respuesta. | Yes | |
| summary_index | integer | Índice del elemento de resumen dentro del elemento de salida. | Yes | |
| text | string | Texto de resumen de razonamiento finalizado. | Yes | |
| type | enum | Tipo del evento. Always 'response.reasoning_summary.done'. Valores posibles: response.reasoning_summary.done |
Yes |
OpenAI.ResponseReasoningSummaryPartAddedEvent
Se genera cuando se agrega una nueva parte de resumen de razonamiento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | El identificador del elemento al que está asociado este elemento de resumen. | Yes | |
| output_index | integer | Índice del elemento de salida al que está asociado esta parte de resumen. | Yes | |
| part | object | Yes | ||
| └─ type | OpenAI.ReasoningItemSummaryPartType | No | ||
| summary_index | integer | Índice de la parte de resumen dentro del resumen de razonamiento. | Yes | |
| type | enum | Tipo del evento. Siempre response.reasoning_summary_part.added.Valores posibles: response.reasoning_summary_part.added |
Yes |
OpenAI.ResponseReasoningSummaryPartDoneEvent
Se genera cuando se completa un elemento de resumen de razonamiento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | El identificador del elemento al que está asociado este elemento de resumen. | Yes | |
| output_index | integer | Índice del elemento de salida al que está asociado esta parte de resumen. | Yes | |
| part | object | Yes | ||
| └─ type | OpenAI.ReasoningItemSummaryPartType | No | ||
| summary_index | integer | Índice de la parte de resumen dentro del resumen de razonamiento. | Yes | |
| type | enum | Tipo del evento. Siempre response.reasoning_summary_part.done.Valores posibles: response.reasoning_summary_part.done |
Yes |
OpenAI.ResponseReasoningSummaryTextDeltaEvent
Se genera cuando se agrega un delta a un texto de resumen de razonamiento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Delta de texto que se agregó al resumen. | Yes | |
| item_id | string | El identificador del elemento al que está asociado este delta de texto de resumen. | Yes | |
| output_index | integer | Índice del elemento de salida al que está asociado este delta de texto de resumen. | Yes | |
| summary_index | integer | Índice de la parte de resumen dentro del resumen de razonamiento. | Yes | |
| type | enum | Tipo del evento. Siempre response.reasoning_summary_text.delta.Valores posibles: response.reasoning_summary_text.delta |
Yes |
OpenAI.ResponseReasoningSummaryTextDoneEvent
Se genera cuando se completa un texto de resumen de razonamiento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | El identificador del elemento al que está asociado este texto de resumen. | Yes | |
| output_index | integer | Índice del elemento de salida al que está asociado este texto de resumen. | Yes | |
| summary_index | integer | Índice de la parte de resumen dentro del resumen de razonamiento. | Yes | |
| text | string | Texto completo del resumen de razonamiento completado. | Yes | |
| type | enum | Tipo del evento. Siempre response.reasoning_summary_text.done.Valores posibles: response.reasoning_summary_text.done |
Yes |
OpenAI.ResponseRefusalDeltaEvent
Se emite cuando hay un texto de denegación parcial.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Índice de la parte de contenido a la que se agrega el texto de denegación. | Yes | |
| delta | string | Texto de denegación que se agrega. | Yes | |
| item_id | string | Identificador del elemento de salida al que se agrega el texto de denegación. | Yes | |
| output_index | integer | Índice del elemento de salida al que se agrega el texto de denegación. | Yes | |
| type | enum | Tipo del evento. Siempre response.refusal.delta.Valores posibles: response.refusal.delta |
Yes |
OpenAI.ResponseRefusalDoneEvent
Se genera cuando se finaliza el texto de denegación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Índice de la parte de contenido en la que se finaliza el texto de denegación. | Yes | |
| item_id | string | Identificador del elemento de salida que finaliza el texto de denegación. | Yes | |
| output_index | integer | Índice del elemento de salida que finaliza el texto de denegación. | Yes | |
| refusal | string | Texto de denegación finalizado. | Yes | |
| type | enum | Tipo del evento. Siempre response.refusal.done.Valores posibles: response.refusal.done |
Yes |
OpenAI.ResponseStreamEvent
Discriminador para OpenAI.ResponseStreamEvent
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sequence_number | integer | Número de secuencia de este evento. | Yes | |
| type | OpenAI.ResponseStreamEventType | Yes |
OpenAI.ResponseStreamEventType
| Property | Value |
|---|---|
| Type | string |
| Values | response.audio.deltaresponse.audio.doneresponse.audio_transcript.deltaresponse.audio_transcript.doneresponse.code_interpreter_call_code.deltaresponse.code_interpreter_call_code.doneresponse.code_interpreter_call.completedresponse.code_interpreter_call.in_progressresponse.code_interpreter_call.interpretingresponse.completedresponse.content_part.addedresponse.content_part.doneresponse.createderrorresponse.file_search_call.completedresponse.file_search_call.in_progressresponse.file_search_call.searchingresponse.function_call_arguments.deltaresponse.function_call_arguments.doneresponse.in_progressresponse.failedresponse.incompleteresponse.output_item.addedresponse.output_item.doneresponse.refusal.deltaresponse.refusal.doneresponse.output_text.annotation.addedresponse.output_text.deltaresponse.output_text.doneresponse.reasoning_summary_part.addedresponse.reasoning_summary_part.doneresponse.reasoning_summary_text.deltaresponse.reasoning_summary_text.doneresponse.web_search_call.completedresponse.web_search_call.in_progressresponse.web_search_call.searchingresponse.image_generation_call.completedresponse.image_generation_call.generatingresponse.image_generation_call.in_progressresponse.image_generation_call.partial_imageresponse.mcp_call.arguments_deltaresponse.mcp_call.arguments_doneresponse.mcp_call.completedresponse.mcp_call.failedresponse.mcp_call.in_progressresponse.mcp_list_tools.completedresponse.mcp_list_tools.failedresponse.mcp_list_tools.in_progressresponse.queuedresponse.reasoning.deltaresponse.reasoning.doneresponse.reasoning_summary.deltaresponse.reasoning_summary.done |
OpenAI.ResponseTextDeltaEvent
Se genera cuando hay un delta de texto adicional.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Índice de la parte de contenido a la que se agregó el delta de texto. | Yes | |
| delta | string | Delta de texto que se agregó. | Yes | |
| item_id | string | Identificador del elemento de salida al que se agregó el delta de texto. | Yes | |
| output_index | integer | Índice del elemento de salida al que se agregó el delta de texto. | Yes | |
| type | enum | Tipo del evento. Siempre response.output_text.delta.Valores posibles: response.output_text.delta |
Yes |
OpenAI.ResponseTextDoneEvent
Se genera cuando se finaliza el contenido de texto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Índice de la parte de contenido que finaliza el contenido de texto. | Yes | |
| item_id | string | Identificador del elemento de salida que finaliza el contenido del texto. | Yes | |
| output_index | integer | Índice del elemento de salida que finaliza el contenido del texto. | Yes | |
| text | string | Contenido de texto finalizado. | Yes | |
| type | enum | Tipo del evento. Siempre response.output_text.done.Valores posibles: response.output_text.done |
Yes |
OpenAI.ResponseTextFormatConfiguration
Discriminador para OpenAI.ResponseTextFormatConfiguration
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
text |
OpenAI.ResponseTextFormatConfigurationText |
json_object |
OpenAI.ResponseTextFormatConfigurationJsonObject |
json_schema |
OpenAI.ResponseTextFormatConfigurationJsonSchema |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ResponseTextFormatConfigurationType | Objeto que especifica el formato que debe generar el modelo.{ "type": "json_schema" } La configuración habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado. El formato predeterminado es { "type": "text" } sin opciones adicionales.No se recomienda para los modelos gpt-4o y más recientes: Establecer en { "type": "json_object" } habilita el modo JSON anterior, lo que garantiza que el mensaje que genera el modelo sea JSON válido. Se prefiere usar json_schema para los modelos que lo admiten. |
Yes |
OpenAI.ResponseTextFormatConfigurationJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valores posibles: json_object |
Yes |
OpenAI.ResponseTextFormatConfigurationJsonSchema
Formato de respuesta de esquema JSON. Se usa para generar respuestas JSON estructuradas.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descripción del formato de respuesta que usa el modelo para determinar cómo responder en el formato. | No | |
| name | string | Nombre del formato de respuesta. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64. | Yes | |
| schema | OpenAI.ResponseFormatJsonSchemaSchema | Esquema para el formato de respuesta, descrito como un objeto de esquema JSON. Obtenga información sobre cómo compilar esquemas JSON aquí. |
Yes | |
| strict | boolean | Indica si se debe habilitar la adhesión estricta al esquema al generar la salida. Si se establece en true, el modelo siempre seguirá el esquema exacto definido en el schema campo. Solo se admite un subconjunto de esquema JSON cuando strict es true. |
No | False |
| type | enum | Tipo de formato de respuesta que se va a definir. Siempre json_schema.Valores posibles: json_schema |
Yes |
OpenAI.ResponseTextFormatConfigurationText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valores posibles: text |
Yes |
OpenAI.ResponseTextFormatConfigurationType
Objeto que especifica el formato que debe generar el modelo.
{ "type": "json_schema" } La configuración habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado.
El formato predeterminado es { "type": "text" } sin opciones adicionales.
No se recomienda para los modelos gpt-4o y más recientes:
Establecer en { "type": "json_object" } habilita el modo JSON anterior, lo que garantiza que el mensaje que genera el modelo sea JSON válido. Se prefiere usar json_schema para los modelos que lo admiten.
| Property | Value |
|---|---|
| Description | Objeto que especifica el formato que debe generar el modelo. |
{ "type": "json_schema" } La configuración habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado.
El formato predeterminado es { "type": "text" } sin opciones adicionales.
No se recomienda para los modelos gpt-4o y más recientes:
Establecer en { "type": "json_object" } habilita el modo JSON anterior, lo que garantiza que el mensaje que genera el modelo sea JSON válido. Se prefiere usar json_schemapara los modelos que lo admiten.
OpenAI.ResponseUsage
Representa los detalles de uso de tokens, incluidos los tokens de entrada, los tokens de salida, un desglose de los tokens de salida y el total de tokens usados.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Número de tokens de entrada. | Yes | |
| input_tokens_details | object | Desglose detallado de los tokens de entrada. | Yes | |
| └─ cached_tokens | integer | Número de tokens que se recuperaron de la memoria caché. | No | |
| output_tokens | integer | Número de tokens de salida. | Yes | |
| output_tokens_details | object | Desglose detallado de los tokens de salida. | Yes | |
| └─ reasoning_tokens | integer | Número de tokens de razonamiento. | No | |
| total_tokens | integer | Número total de tokens usados. | Yes |
OpenAI.ResponseWebSearchCallCompletedEvent
Nota: web_search aún no está disponible a través de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador único del elemento de salida asociado a la llamada de búsqueda web. | Yes | |
| output_index | integer | Índice del elemento de salida al que está asociada la llamada de búsqueda web. | Yes | |
| type | enum | Tipo del evento. Siempre response.web_search_call.completed.Valores posibles: response.web_search_call.completed |
Yes |
OpenAI.ResponseWebSearchCallInProgressEvent
Nota: web_search aún no está disponible a través de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador único del elemento de salida asociado a la llamada de búsqueda web. | Yes | |
| output_index | integer | Índice del elemento de salida al que está asociada la llamada de búsqueda web. | Yes | |
| type | enum | Tipo del evento. Siempre response.web_search_call.in_progress.Valores posibles: response.web_search_call.in_progress |
Yes |
OpenAI.ResponseWebSearchCallSearchingEvent
Nota: web_search aún no está disponible a través de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificador único del elemento de salida asociado a la llamada de búsqueda web. | Yes | |
| output_index | integer | Índice del elemento de salida al que está asociada la llamada de búsqueda web. | Yes | |
| type | enum | Tipo del evento. Siempre response.web_search_call.searching.Valores posibles: response.web_search_call.searching |
Yes |
OpenAI.ResponsesAssistantMessageItemParam
Elemento de parámetro de mensaje con el assistant rol .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenido asociado al mensaje. | Yes | |
| role | enum | Rol del mensaje, que siempre assistantes .Valores posibles: assistant |
Yes |
OpenAI.ResponsesAssistantMessageItemResource
Un elemento de recurso de mensaje con el assistant rol .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenido asociado al mensaje. | Yes | |
| role | enum | Rol del mensaje, que siempre assistantes .Valores posibles: assistant |
Yes |
OpenAI.ResponsesDeveloperMessageItemParam
Elemento de parámetro de mensaje con el developer rol .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenido asociado al mensaje. | Yes | |
| role | enum | Rol del mensaje, que siempre developeres .Valores posibles: developer |
Yes |
OpenAI.ResponsesDeveloperMessageItemResource
Un elemento de recurso de mensaje con el developer rol .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenido asociado al mensaje. | Yes | |
| role | enum | Rol del mensaje, que siempre developeres .Valores posibles: developer |
Yes |
OpenAI.ResponsesMessageItemParam
Elemento de mensaje de respuesta, que representa un rol y contenido, tal como se proporciona como parámetros de solicitud de cliente.
Discriminador para OpenAI.ResponsesMessageItemParam
Este componente usa la propiedad role para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
user |
OpenAI.ResponsesUserMessageItemParam |
system |
OpenAI.ResponsesSystemMessageItemParam |
developer |
OpenAI.ResponsesDeveloperMessageItemParam |
assistant |
OpenAI.ResponsesAssistantMessageItemParam |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | object | Colección de roles válidos para los elementos de mensaje de respuestas. | Yes | |
| type | enum | Tipo del elemento de respuestas, que siempre es "message". Valores posibles: message |
Yes |
OpenAI.ResponsesMessageItemResource
Un elemento de recurso de mensaje de respuesta, que representa un rol y contenido, tal como se proporciona en las respuestas de servicio.
Discriminador para OpenAI.ResponsesMessageItemResource
Este componente usa la propiedad role para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
user |
OpenAI.ResponsesUserMessageItemResource |
system |
OpenAI.ResponsesSystemMessageItemResource |
developer |
OpenAI.ResponsesDeveloperMessageItemResource |
assistant |
OpenAI.ResponsesAssistantMessageItemResource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | object | Colección de roles válidos para los elementos de mensaje de respuestas. | Yes | |
| status | enum | Estado del elemento. Uno de in_progress, completedo incomplete. Se rellena cuando los elementos se devuelven a través de la API.Valores posibles: in_progress, completed, incomplete |
Yes | |
| type | enum | Tipo del elemento de respuestas, que siempre es "message". Valores posibles: message |
Yes |
OpenAI.ResponsesMessageRole
Colección de roles válidos para los elementos de mensaje de respuestas.
| Property | Value |
|---|---|
| Description | Colección de roles válidos para los elementos de mensaje de respuestas. |
| Type | string |
| Values | systemdeveloperuserassistant |
OpenAI.ResponsesSystemMessageItemParam
Elemento de parámetro de mensaje con el system rol .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenido asociado al mensaje. | Yes | |
| role | enum | Rol del mensaje, que siempre systemes .Valores posibles: system |
Yes |
OpenAI.ResponsesSystemMessageItemResource
Un elemento de recurso de mensaje con el system rol .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenido asociado al mensaje. | Yes | |
| role | enum | Rol del mensaje, que siempre systemes .Valores posibles: system |
Yes |
OpenAI.ResponsesUserMessageItemParam
Elemento de parámetro de mensaje con el user rol .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenido asociado al mensaje. | Yes | |
| role | enum | Rol del mensaje, que siempre useres .Valores posibles: user |
Yes |
OpenAI.ResponsesUserMessageItemResource
Un elemento de recurso de mensaje con el user rol .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenido asociado al mensaje. | Yes | |
| role | enum | Rol del mensaje, que siempre useres .Valores posibles: user |
Yes |
OpenAI.RunGraderRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Objeto StringCheckGrader que realiza una comparación de cadenas entre la entrada y la referencia mediante una operación especificada. | Yes | |
| └─ calculate_output | string | Fórmula para calcular la salida en función de los resultados del calificador. | No | |
| └─ evaluation_metric | enum | Métrica de evaluación que se va a usar. Uno de fuzzy_match, bleu, , gleumeteorrouge_1rouge_2rouge_3, , rouge_4, , rouge_5o .rouge_lValores posibles: fuzzy_match, bleu, , gleu, meteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Etiqueta de imagen que se va a usar para el script de Python. | No | |
| └─ input | array | Texto de entrada. Esto puede incluir cadenas de plantilla. | No | |
| └─ model | string | Modelo que se va a usar para la evaluación. | No | |
| └─ name | string | Nombre del calificador. | No | |
| └─ operation | enum | Operación de comprobación de cadena que se va a realizar. Uno de eq, ne, likeo ilike.Valores posibles: eq, ne, like, ilike |
No | |
| └─ range | array | Intervalo de la puntuación. El valor predeterminado es [0, 1]. |
No | |
| └─ reference | string | Texto con el que se va a clasificar. | No | |
| └─ sampling_params | Parámetros de muestreo para el modelo. | No | ||
| └─ source | string | Código fuente del script de Python. | No | |
| └─ type | enum | Tipo de objeto, que siempre multies .Valores posibles: multi |
No | |
| item | Elemento de conjunto de datos proporcionado al calificador. Se usará para rellenar el item espacio de nombres. |
No | ||
| model_sample | string | Ejemplo de modelo que se va a evaluar. Este valor se usará para rellenar el sample espacio de nombres. La output_json variable se rellenará si el ejemplo de modelo es una cadena JSON válida. |
Yes |
OpenAI.RunGraderResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Yes | ||
| └─ errors | object | No | ||
| └─ formula_parse_error | boolean | No | ||
| └─ invalid_variable_error | boolean | No | ||
| └─ model_grader_parse_error | boolean | No | ||
| └─ model_grader_refusal_error | boolean | No | ||
| └─ model_grader_server_error | boolean | No | ||
| └─ model_grader_server_error_details | string | No | ||
| └─ other_error | boolean | No | ||
| └─ python_grader_runtime_error | boolean | No | ||
| └─ python_grader_runtime_error_details | string | No | ||
| └─ python_grader_server_error | boolean | No | ||
| └─ python_grader_server_error_type | string | No | ||
| └─ sample_parse_error | boolean | No | ||
| └─ truncated_observation_error | boolean | No | ||
| └─ unresponsive_reward_error | boolean | No | ||
| └─ execution_time | number | No | ||
| └─ name | string | No | ||
| └─ sampled_model_name | string | No | ||
| └─ scores | No | |||
| └─ token_usage | integer | No | ||
| └─ type | string | No | ||
| model_grader_token_usage_per_model | Yes | |||
| reward | number | Yes | ||
| sub_rewards | Yes |
OpenAI.StaticChunkingStrategy
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | integer | Número de tokens que se superponen entre fragmentos. El valor predeterminado es 400.Tenga en cuenta que la superposición no debe superar la mitad de max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | integer | Número máximo de tokens en cada fragmento. El valor predeterminado es 800. El valor mínimo es 100 y el valor máximo es 4096. |
Yes |
OpenAI.StaticChunkingStrategyRequestParam
Personalice su propia estrategia de fragmentación estableciendo el tamaño del fragmento y la superposición de fragmentos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | OpenAI.StaticChunkingStrategy | Yes | ||
| type | enum | Siempre static.Valores posibles: static |
Yes |
OpenAI.StaticChunkingStrategyResponseParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | OpenAI.StaticChunkingStrategy | Yes | ||
| type | enum | Siempre static.Valores posibles: static |
Yes |
OpenAI.StopConfiguration
No se admite con los modelos o3 de razonamiento más recientes y o4-mini.
Hasta 4 secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención.
Este esquema acepta uno de los siguientes tipos:
- string
- array
OpenAI.Tool
Discriminador para OpenAI.Tool
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
function |
OpenAI.FunctionTool |
file_search |
OpenAI.FileSearchTool |
computer_use_preview |
OpenAI.ComputerUsePreviewTool |
web_search_preview |
OpenAI.WebSearchPreviewTool |
code_interpreter |
OpenAI.CodeInterpreterTool |
image_generation |
OpenAI.ImageGenTool |
local_shell |
OpenAI.LocalShellTool |
mcp |
OpenAI.MCPTool |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ToolType | Herramienta que se puede usar para generar una respuesta. | Yes |
OpenAI.ToolChoiceObject
Discriminador para OpenAI.ToolChoiceObject
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
file_search |
OpenAI.ToolChoiceObjectFileSearch |
computer_use_preview |
OpenAI.ToolChoiceObjectComputer |
web_search_preview |
OpenAI.ToolChoiceObjectWebSearch |
image_generation |
OpenAI.ToolChoiceObjectImageGen |
code_interpreter |
OpenAI.ToolChoiceObjectCodeInterpreter |
function |
OpenAI.ToolChoiceObjectFunction |
mcp |
OpenAI.ToolChoiceObjectMCP |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ToolChoiceObjectType | Indica que el modelo debe usar una herramienta integrada para generar una respuesta. | Yes |
OpenAI.ToolChoiceObjectCodeInterpreter
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valores posibles: code_interpreter |
Yes |
OpenAI.ToolChoiceObjectComputer
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valores posibles: computer_use_preview |
Yes |
OpenAI.ToolChoiceObjectFileSearch
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valores posibles: file_search |
Yes |
OpenAI.ToolChoiceObjectFunction
Use esta opción para forzar al modelo a llamar a una función específica.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nombre de la función a la que se va a llamar. | Yes | |
| type | enum | En el caso de las llamadas a funciones, el tipo siempre functiones .Valores posibles: function |
Yes |
OpenAI.ToolChoiceObjectImageGen
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valores posibles: image_generation |
Yes |
OpenAI.ToolChoiceObjectMCP
Use esta opción para forzar al modelo a llamar a una herramienta específica en un servidor MCP remoto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nombre de la herramienta que se va a llamar en el servidor. | No | |
| server_label | string | Etiqueta del servidor MCP que se va a usar. | Yes | |
| type | enum | En el caso de las herramientas de MCP, el tipo siempre mcpes .Valores posibles: mcp |
Yes |
OpenAI.ToolChoiceObjectType
Indica que el modelo debe usar una herramienta integrada para generar una respuesta.
| Property | Value |
|---|---|
| Description | Indica que el modelo debe usar una herramienta integrada para generar una respuesta. |
| Type | string |
| Values | file_searchfunctioncomputer_use_previewweb_search_previewimage_generationcode_interpretermcp |
OpenAI.ToolChoiceObjectWebSearch
Nota: web_search aún no está disponible a través de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valores posibles: web_search_preview |
Yes |
OpenAI.ToolChoiceOptions
Controla la herramienta a la que llama el modelo (si existe).
none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas.
required significa que el modelo debe llamar a una o varias herramientas.
| Property | Value |
|---|---|
| Description | Controla la herramienta a la que llama el modelo (si existe).none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje.auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas.required significa que el modelo debe llamar a una o varias herramientas. |
| Type | string |
| Values | noneautorequired |
OpenAI.ToolType
Herramienta que se puede usar para generar una respuesta.
| Property | Value |
|---|---|
| Description | Herramienta que se puede usar para generar una respuesta. |
| Type | string |
| Values | file_searchfunctioncomputer_use_previewweb_search_previewmcpcode_interpreterimage_generationlocal_shell |
OpenAI.TopLogProb
La probabilidad de registro superior de un token.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Yes | ||
| logprob | number | Yes | ||
| token | string | Yes |
OpenAI.TranscriptionAudioResponseFormat
References: OpenAI.AudioResponseFormat
OpenAI.TranscriptionInclude
| Property | Value |
|---|---|
| Type | string |
| Values | logprobs |
OpenAI.TranscriptionSegment
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Promedio de logprob del segmento. Si el valor es inferior a -1, tenga en cuenta los errores de logprobs. | Yes | |
| compression_ratio | number | Relación de compresión del segmento. Si el valor es mayor que 2.4, considere el error de compresión. | Yes | |
| end | number | Hora de finalización del segmento en segundos. | Yes | |
| id | integer | Identificador único del segmento. | Yes | |
| no_speech_prob | number | Probabilidad de que no haya voz en el segmento. Si el valor es mayor que 1.0 y avg_logprob está por debajo de -1, considere este segmento silencioso. |
Yes | |
| seek | integer | Buscar desplazamiento del segmento. | Yes | |
| start | number | Hora de inicio del segmento en segundos. | Yes | |
| temperature | number | Parámetro de temperatura usado para generar el segmento. | Yes | |
| text | string | Contenido de texto del segmento. | Yes | |
| tokens | array | Matriz de identificadores de token para el contenido de texto. | Yes |
OpenAI.TranscriptionWord
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end | number | Hora de finalización de la palabra en segundos. | Yes | |
| start | number | Hora de inicio de la palabra en segundos. | Yes | |
| word | string | Contenido de texto de la palabra. | Yes |
OpenAI.TranslationAudioResponseFormat
References: OpenAI.AudioResponseFormat
OpenAI.UpdateVectorStoreFileAttributesRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres, booleanos o números. | Yes |
OpenAI.UpdateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | object | Directiva de expiración de un almacén de vectores. | No | |
| └─ anchor | enum | Marca de tiempo de anclaje después de la cual se aplica la directiva de expiración. Anclajes admitidos: last_active_at.Valores posibles: last_active_at |
No | |
| └─ days | integer | Número de días después del tiempo de delimitador que expirará el almacén de vectores. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| name | string | Nombre del almacén de vectores. | No |
OpenAI.VadConfig
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prefix_padding_ms | integer | Cantidad de audio que se va a incluir antes de que el VAD detecte voz (en milisegundos). | No | 300 |
| silence_duration_ms | integer | Duración del silencio para detectar la detención de voz (en milisegundos). Con valores más cortos, el modelo responderá más rápidamente, pero puede saltar en pausas cortas del usuario. |
No | 200 |
| threshold | number | Umbral de confidencialidad (de 0,0 a 1,0) para la detección de actividad de voz. Un umbral superior requerirá audio más alto para activar el modelo y, por tanto, podría funcionar mejor en entornos ruidosos. | No | 0.5 |
| type | enum | Debe establecerse en server_vad para habilitar la fragmentación manual mediante VAD del lado servidor.Valores posibles: server_vad |
Yes |
OpenAI.ValidateGraderRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Objeto StringCheckGrader que realiza una comparación de cadenas entre la entrada y la referencia mediante una operación especificada. | Yes | |
| └─ calculate_output | string | Fórmula para calcular la salida en función de los resultados del calificador. | No | |
| └─ evaluation_metric | enum | Métrica de evaluación que se va a usar. Uno de fuzzy_match, bleu, , gleumeteorrouge_1rouge_2rouge_3, , rouge_4, , rouge_5o .rouge_lValores posibles: fuzzy_match, bleu, , gleu, meteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Etiqueta de imagen que se va a usar para el script de Python. | No | |
| └─ input | array | Texto de entrada. Esto puede incluir cadenas de plantilla. | No | |
| └─ model | string | Modelo que se va a usar para la evaluación. | No | |
| └─ name | string | Nombre del calificador. | No | |
| └─ operation | enum | Operación de comprobación de cadena que se va a realizar. Uno de eq, ne, likeo ilike.Valores posibles: eq, ne, like, ilike |
No | |
| └─ range | array | Intervalo de la puntuación. El valor predeterminado es [0, 1]. |
No | |
| └─ reference | string | Texto con el que se va a clasificar. | No | |
| └─ sampling_params | Parámetros de muestreo para el modelo. | No | ||
| └─ source | string | Código fuente del script de Python. | No | |
| └─ type | enum | Tipo de objeto, que siempre multies .Valores posibles: multi |
No |
OpenAI.ValidateGraderResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Objeto StringCheckGrader que realiza una comparación de cadenas entre la entrada y la referencia mediante una operación especificada. | No | |
| └─ calculate_output | string | Fórmula para calcular la salida en función de los resultados del calificador. | No | |
| └─ evaluation_metric | enum | Métrica de evaluación que se va a usar. Uno de fuzzy_match, bleu, , gleumeteorrouge_1rouge_2rouge_3, , rouge_4, , rouge_5o .rouge_lValores posibles: fuzzy_match, bleu, , gleu, meteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Etiqueta de imagen que se va a usar para el script de Python. | No | |
| └─ input | array | Texto de entrada. Esto puede incluir cadenas de plantilla. | No | |
| └─ model | string | Modelo que se va a usar para la evaluación. | No | |
| └─ name | string | Nombre del calificador. | No | |
| └─ operation | enum | Operación de comprobación de cadena que se va a realizar. Uno de eq, ne, likeo ilike.Valores posibles: eq, ne, like, ilike |
No | |
| └─ range | array | Intervalo de la puntuación. El valor predeterminado es [0, 1]. |
No | |
| └─ reference | string | Texto con el que se va a clasificar. | No | |
| └─ sampling_params | Parámetros de muestreo para el modelo. | No | ||
| └─ source | string | Código fuente del script de Python. | No | |
| └─ type | enum | Tipo de objeto, que siempre multies .Valores posibles: multi |
No |
OpenAI.VectorStoreExpirationAfter
Directiva de expiración de un almacén de vectores.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| anchor | enum | Marca de tiempo de anclaje después de la cual se aplica la directiva de expiración. Anclajes admitidos: last_active_at.Valores posibles: last_active_at |
Yes | |
| days | integer | Número de días después del tiempo de delimitador que expirará el almacén de vectores. | Yes |
OpenAI.VectorStoreFileAttributes
Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres, booleanos o números.
Type: object
OpenAI.VectorStoreFileBatchObject
Un lote de archivos adjuntos a un almacén de vectores.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Marca de tiempo de Unix (en segundos) para cuando se creó el lote de archivos de almacén de vectores. | Yes | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Número de archivos en los que se canceló. | No | |
| └─ completed | integer | Número de archivos que se han procesado. | No | |
| └─ failed | integer | Número de archivos que no se han podido procesar. | No | |
| └─ in_progress | integer | Número de archivos que se están procesando actualmente. | No | |
| └─ total | integer | Número total de archivos. | No | |
| id | string | Identificador al que se puede hacer referencia en puntos de conexión de API. | Yes | |
| object | enum | Tipo de objeto, que siempre vector_store.file_batches .Valores posibles: vector_store.files_batch |
Yes | |
| status | enum | Estado del lote de archivos de almacenamiento vectorial, que puede ser in_progress, completedcancelled o failed.Valores posibles: in_progress, completed, cancelled, failed |
Yes | |
| vector_store_id | string | Identificador del almacén de vectores al que está asociado el archivo. | Yes |
OpenAI.VectorStoreFileObject
Lista de archivos adjuntos a un almacén de vectores.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres, booleanos o números. | No | |
| chunking_strategy | object | No | ||
| └─ type | enum | Valores posibles: static, other |
No | |
| created_at | integer | Marca de tiempo de Unix (en segundos) para cuando se creó el archivo de almacén de vectores. | Yes | |
| id | string | Identificador al que se puede hacer referencia en puntos de conexión de API. | Yes | |
| last_error | object | El último error asociado a este archivo de almacén de vectores.
null Será si no hay errores. |
Yes | |
| └─ code | enum | Uno de server_error o rate_limit_exceeded.Valores posibles: server_error, unsupported_file, invalid_file |
No | |
| └─ message | string | Descripción legible del error. | No | |
| object | enum | Tipo de objeto, que siempre vector_store.filees .Valores posibles: vector_store.file |
Yes | |
| status | enum | Estado del archivo de almacén de vectores, que puede ser in_progress, completed, cancelledo failed. El estado completed indica que el archivo de almacén de vectores está listo para su uso.Valores posibles: in_progress, completed, cancelled, failed |
Yes | |
| usage_bytes | integer | El uso total del almacén de vectores en bytes. Tenga en cuenta que esto puede ser diferente del tamaño del archivo original. | Yes | |
| vector_store_id | string | Identificador del almacén de vectores al que está asociado el archivo. | Yes |
OpenAI.VectorStoreObject
Un almacén vectorial es una colección de archivos procesados que la herramienta puede usar file_search .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Marca de tiempo de Unix (en segundos) para cuando se creó el almacén de vectores. | Yes | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Directiva de expiración de un almacén de vectores. | No | |
| expires_at | integer | Marca de tiempo de Unix (en segundos) para cuando expire el almacén de vectores. | No | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Número de archivos cancelados. | No | |
| └─ completed | integer | Número de archivos que se han procesado correctamente. | No | |
| └─ failed | integer | Número de archivos que no se han podido procesar. | No | |
| └─ in_progress | integer | Número de archivos que se están procesando actualmente. | No | |
| └─ total | integer | Número total de archivos. | No | |
| id | string | Identificador al que se puede hacer referencia en puntos de conexión de API. | Yes | |
| last_active_at | integer | Marca de tiempo de Unix (en segundos) para cuando el almacén de vectores estaba activo por última vez. | Yes | |
| metadata | object | Conjunto de 16 pares clave-valor que se pueden adjuntar a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y consultar objetos a través de la API o el panel. Las claves son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
Yes | |
| name | string | Nombre del almacén de vectores. | Yes | |
| object | enum | Tipo de objeto, que siempre vector_storees .Valores posibles: vector_store |
Yes | |
| status | enum | Estado del almacén de vectores, que puede ser expired, in_progresso completed. Un estado de completed indica que el almacén de vectores está listo para su uso.Valores posibles: expired, in_progress, completed |
Yes | |
| usage_bytes | integer | Número total de bytes usados por los archivos en el almacén de vectores. | Yes |
OpenAI.VoiceIdsShared
| Property | Value |
|---|---|
| Type | string |
| Values | alloyashballadcoralechofableonyxnovasageshimmerverse |
OpenAI.WebSearchAction
Discriminador para OpenAI.WebSearchAction
Este componente usa la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
find |
OpenAI.WebSearchActionFind |
open_page |
OpenAI.WebSearchActionOpenPage |
search |
OpenAI.WebSearchActionSearch |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.WebSearchActionType | Yes |
OpenAI.WebSearchActionFind
Tipo de acción "buscar": busca un patrón dentro de una página cargada.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| pattern | string | Patrón o texto que se va a buscar en la página. | Yes | |
| type | enum | Tipo de acción. Valores posibles: find |
Yes | |
| url | string | Dirección URL de la página en la que se busca el patrón. | Yes |
OpenAI.WebSearchActionOpenPage
Tipo de acción "open_page": abre una dirección URL específica de los resultados de la búsqueda.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo de acción. Valores posibles: open_page |
Yes | |
| url | string | Dirección URL abierta por el modelo. | Yes |
OpenAI.WebSearchActionSearch
Tipo de acción "search": realiza una consulta de búsqueda web.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| query | string | Consulta de búsqueda. | Yes | |
| type | enum | Tipo de acción. Valores posibles: search |
Yes |
OpenAI.WebSearchActionType
| Property | Value |
|---|---|
| Type | string |
| Values | searchopen_pagefind |
OpenAI.WebSearchPreviewTool
Nota: web_search aún no está disponible a través de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| search_context_size | enum | Guía de alto nivel para la cantidad de espacio de ventana de contexto que se va a usar para la búsqueda. Uno de low, mediumo high.
medium es el valor predeterminado.Valores posibles: low, medium, high |
No | |
| type | enum | Tipo de la herramienta de búsqueda web. Uno de web_search_preview o web_search_preview_2025_03_11.Valores posibles: web_search_preview |
Yes | |
| user_location | object | No | ||
| └─ type | OpenAI.LocationType | No |
OpenAI.WebSearchToolCallItemParam
Nota: web_search aún no está disponible a través de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | object | Yes | ||
| └─ type | OpenAI.WebSearchActionType | No | ||
| type | enum | Valores posibles: web_search_call |
Yes |
OpenAI.WebSearchToolCallItemResource
Nota: web_search aún no está disponible a través de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | object | Yes | ||
| └─ type | OpenAI.WebSearchActionType | No | ||
| status | enum | El estado de la llamada a la herramienta de búsqueda web. Valores posibles: in_progress, searching, completed, failed |
Yes | |
| type | enum | Valores posibles: web_search_call |
Yes |
PineconeChatDataSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Información de parámetros para controlar el uso del origen de datos pinecone. | Yes | |
| └─ allow_partial_result | boolean | Si se establece en true, el sistema permitirá que se usen resultados de búsqueda parciales y se producirá un error en la solicitud si se produce un error en todas las consultas parciales. Si no se especifica o se especifica como false, se producirá un error en la solicitud si se produce un error en alguna consulta de búsqueda. | No | False |
| └─ authentication | object | No | ||
| └─ key | string | No | ||
| └─ type | enum | Valores posibles: api_key |
No | |
| └─ embedding_dependency | object | Representación de un origen de vectorización de datos que se puede usar como un recurso de inserción con un origen de datos. | No | |
| └─ type | AzureChatDataSourceVectorizationSourceType | Identificador diferenciador del origen de vectorización concreto. | No | |
| └─ environment | string | Nombre de entorno que se va a usar con Pinecone. | No | |
| └─ fields_mapping | object | Asignaciones de campos que se aplicarán a los datos utilizados por el origen de datos pinecone. Tenga en cuenta que las asignaciones de campos de contenido son necesarias para Pinecone. |
No | |
| └─ content_fields | array | No | ||
| └─ content_fields_separator | string | No | ||
| └─ filepath_field | string | No | ||
| └─ title_field | string | No | ||
| └─ url_field | string | No | ||
| └─ in_scope | boolean | Si las consultas deben restringirse al uso de los datos indexados. | No | |
| └─ include_contexts | array | Propiedades de contexto de salida que se van a incluir en la respuesta. De forma predeterminada, se solicitarán citas e intenciones. |
No | ['citations', 'intent'] |
| └─ index_name | string | Nombre del índice de base de datos pinecone que se va a usar. | No | |
| └─ max_search_queries | integer | Número máximo de consultas reescritas que se deben enviar al proveedor de búsqueda para un único mensaje de usuario. De forma predeterminada, el sistema realizará una determinación automática. |
No | |
| └─ strictness | integer | La estricta configuración del filtrado de relevancia de búsqueda. Una mayor precisión aumentará la precisión, pero la menor recuperación de la respuesta. |
No | |
| └─ top_n_documents | integer | Número configurado de documentos que se van a presentar en la consulta. | No | |
| type | enum | Identificador de tipo discriminado, que siempre es "pinecone". Valores posibles: pinecone |
Yes |
Quality
Calidad del contenido de vídeo que se va a recuperar. Esto especifica la calidad del contenido de vídeo que se debe devolver.
| Property | Value |
|---|---|
| Description | Calidad del contenido de vídeo que se va a recuperar. Esto especifica la calidad del contenido de vídeo que se debe devolver. |
| Type | string |
| Values | highlow |
ResponseFormatJSONSchemaRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | Esquema JSON para el formato de respuesta | Yes | |
| type | enum | Tipo de formato de respuesta Valores posibles: json_schema |
Yes |
ResponseModalities
Tipos de salida que desea que genere el modelo. La mayoría de los modelos son capaces de generar texto, que es el valor predeterminado:
["text"]
El gpt-4o-audio-preview modelo también se puede usar para generar audio. Para solicitar que este modelo genere respuestas de texto y audio, puede usar:
["text", "audio"]
Matriz de: cadena
SpeechGenerationResponseFormat
Formatos de salida de audio admitidos para texto a voz.
Este componente puede ser uno de los siguientes:
VideoGeneration
Resultado de la generación de vídeos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Hora a la que se creó la generación de vídeos. | Yes | |
| height | integer | Alto del vídeo. | Yes | |
| id | string | Identificador de la generación de vídeo. | Yes | |
| job_id | string | El identificador del trabajo de generación de vídeos para este vídeo. | Yes | |
| n_seconds | integer | Duración de la generación de vídeo. | Yes | |
| object | enum | Valores posibles: video.generation |
Yes | |
| prompt | string | Solicitud de esta generación de vídeo. | Yes | |
| width | integer | Ancho del vídeo. | Yes |
VideoGenerationJob
Un trabajo de generación de vídeos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Hora a la que se creó el trabajo. | Yes | |
| expires_at | integer | Hora a la que el trabajo se elimina automáticamente del servicio. El contenido de vídeo y los metadatos del trabajo deben almacenarse antes de esta fecha para evitar la pérdida de datos. | No | |
| failure_reason | string (consulte los modelos válidos a continuación) | No | ||
| finished_at | integer | Hora en la que el trabajo finalizó con todas las generaciones de vídeos. | No | |
| generations | array | Vídeos generados para este trabajo. El número depende del n_variants especificado y del éxito de creación de las generaciones. | No | |
| height | integer | Alto del vídeo. | Yes | |
| id | string | Identificador del trabajo. | Yes | |
| inpaint_items | array | Elementos opcionales de inpainting para este trabajo de generación de vídeo. | No | |
| model | string | Nombre de la implementación que se va a usar para este trabajo de generación de vídeos. | Yes | |
| n_seconds | integer | Duración del trabajo de generación de vídeo. | Yes | |
| n_variants | integer | Número de vídeos que se van a crear como variantes para este trabajo de generación de vídeos. | Yes | |
| object | enum | Valores posibles: video.generation.job |
Yes | |
| prompt | string | Solicitud de este trabajo de generación de vídeo. | Yes | |
| status | object | Estado de un trabajo de generación de vídeo. | Yes | |
| width | integer | Alto del vídeo. | Yes |
VideoGenerationJobList
Lista de trabajos de generación de vídeos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Lista de trabajos de generación de vídeo. | Yes | |
| first_id | string | Identificador del primer trabajo de la página actual, si está disponible. | No | |
| has_more | boolean | Marca que indica si hay más trabajos disponibles después de la lista. | Yes | |
| last_id | string | Identificador del último trabajo de la página actual, si está disponible. | No | |
| object | enum | Valores posibles: list |
Yes |
Next steps
Obtenga información sobre modelos y ajuste preciso con la API REST. Obtenga más información sobre los modelos underlying que potencian Azure OpenAI.