Nota
L'accés a aquesta pàgina requereix autorització. Podeu provar d'iniciar la sessió o de canviar els directoris.
L'accés a aquesta pàgina requereix autorització. Podeu provar de canviar els directoris.
Visualización actual:Versión - del portal de Foundry (clásico)Cambio a la versión del nuevo portal de Foundry
Note
Los vínculos de este artículo pueden abrir contenido en la nueva documentación de Microsoft Foundry en lugar de la documentación de Foundry (clásico) que está viendo ahora.
Este artículo ofrece detalles sobre los endpoints de la API REST de inferencia para Azure OpenAI.
API specs
La gestión e interacción con los modelos y recursos de OpenAI de Azure se divide en tres superficies principales de API:
- Control plane
- Plano de datos - creación
- Plano de datos - inferencia
Cada superficie/especificación de API encapsula un conjunto diferente de capacidades de Azure OpenAI. Cada API tiene su propio conjunto único de versiones de vista previa y de APIs estables/disponibles en general (GA). Actualmente, los lanzamientos de vista previa tienden a seguir un ritmo mensual.
Important
Ahora existe una nueva API de inferencia de vista previa. Descubre más en nuestra guía del ciclo de vida de la API.
| API | Última versión previa | Último lanzamiento de GA | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | La API del plano de control se utiliza para operaciones como la creación de recursos, el despliegue de modelos y otras tareas de gestión de recursos de mayor nivel. El plano de control también regula lo que es posible hacer con capacidades como Azure Resource Manager, Bicep, Terraform y CLI de Azure. |
| Data plane | v1 preview |
v1 |
Spec files | La API del plano de datos controla las operaciones de inferencia y autoría. |
Authentication
Azure OpenAI ofrece dos métodos de autenticación. Puedes usar API Keys o Microsoft Entra ID.
Autenticación de clave API: Para este tipo de autenticación, todas las solicitudes API deben incluir la clave API en la
api-keycabecera HTTP. El Quickstart ofrece orientación sobre cómo realizar llamadas con este tipo de autenticación.Microsoft Entra ID: Puedes autenticar una llamada API usando un token Microsoft Entra. Los tokens de autenticación se incluyen en una solicitud como Authorizationcabecera. El token proporcionado debe ir precedido porBearer, por ejemploBearer YOUR_AUTH_TOKEN. Puedes leer nuestra guía práctica sobre autenticación con Microsoft Entra ID.
Versionado de la API REST
Las APIs de servicio se versionan usando el api-version parámetro de consulta. Todas las versiones siguen la estructura de fechas YYYY-MM-DD. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferencia en planos de datos
El resto del artículo trata sobre la versión GA de la especificación de inferencia de planos de datos de OpenAI Azure 2024-10-21.
Si buscas documentación sobre la última versión de la API de vista previa, consulta la última API de inferencia de planos de datos de vista previa
Completions
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Crea una finalización para el prompt, los parámetros y el modelo elegido proporcionados.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID de despliegue del modelo que se desplegó. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | Cadena o matriz | El(los) prompt(s) para generar completaciones para , codificado como una cadena, array de cadenas, array de tokens o array de tokens. Ten en cuenta que <|endoftext|> es el separador de documentos que el modelo ve durante el entrenamiento, así que si no se especifica un prompt, el modelo se generará como si fuera desde el principio de un nuevo documento. |
Yes | |
| best_of | integer | Genera best_of completaciones en el lado del servidor y devuelve el "mejor" (el que tiene la mayor probabilidad logarítmica por token). Los resultados no se pueden transmitir en streaming.Cuando se usa con n, best_of controla el número de completaciones candidatas y n especifica cuántas devolver â€" best_of debe ser mayor que n.Nota: Como este parámetro genera muchas completaciones, puede consumir rápidamente tu cuota de tokens. Úsalo con cuidado y asegúrate de tener configuraciones razonables para max_tokens y stop. |
No | 1 |
| echo | boolean | Haz eco del prompt además de la finalización |
No | False |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente. |
No | 0 |
| logit_bias | object | Modifica la probabilidad de que los tokens especificados aparezcan en la completación. Acepta un objeto JSON que mapea los tokens (especificados por su ID de token en el tokenizador GPT) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente. Por ejemplo, puedes pasar {"50256": -100} para evitar que se genere el <token |endoftext> |. |
No | None |
| logprobs | integer | Incluye las probabilidades logarítmicas de los logprobs tokens de salida más probables, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devolverá una lista de los cinco tokens más probables. La API siempre devolverá el logprob del token muestreado, por lo que puede haber hasta logprobs+1 hasta elementos en la respuesta.El valor máximo para logprobs es 5. |
No | None |
| max_tokens | integer | El número máximo de tokens que se pueden generar en la finalización. El recuento de tokens de tu prompt plus max_tokens no puede superar la longitud contextual del modelo. |
No | 16 |
| n | integer | Cuántas finalizaciones generar para cada prompt. Nota: Como este parámetro genera muchas completaciones, puede consumir rápidamente tu cuota de tokens. Úsalo con cuidado y asegúrate de tener configuraciones razonables para max_tokens y stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas. |
No | 0 |
| seed | integer | Si se especifica, nuestro sistema hará el mejor esfuerzo por muestrear determinísticamente, de modo que las solicitudes repetidas con los mismos seed parámetros y devuelvan el mismo resultado.El determinismo no está garantizado, y deberías consultar el system_fingerprint parámetro de respuesta para monitorizar los cambios en el backend. |
No | |
| stop | Cadena o matriz | Hasta cuatro secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de paradas. |
No | |
| stream | boolean | Si se debe refluir en un progreso parcial. Si se establece, los tokens se enviarán como eventos solo de datos enviados por el servidor a medida que estén disponibles, y el flujo terminará con un data: [DONE] mensaje. |
No | False |
| suffix | string | El sufijo que aparece después de completar el texto insertado. Este parámetro solo es compatible con gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Generalmente recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. |
No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse | Representa una respuesta de completación de la API. Nota: tanto los objetos de respuesta transmitidos como los no transmitidos comparten la misma forma (a diferencia del endpoint del chat). |
Código de estado: por defecto
Descripción: Servicio no disponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crea una finalización para el prompt, los parámetros y el modelo elegido proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respuestas: Código de estado: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Embeddings
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Obtén una representación vectorial de una entrada dada que pueda ser fácilmente consumida por modelos y algoritmos de aprendizaje automático.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | Cadena o matriz | Introduce texto para incrustar, codificado como una cadena o array de tokens. Para incrustar múltiples entradas en una sola solicitud, pasa un array de cadenas o un array de arrays de tokens. La entrada no debe superar los tokens máximos de entrada para el modelo (8.192 tokens para text-embedding-ada-002), no puede ser una cadena vacía, y cualquier array debe tener 2.048 dimensiones o menos. |
Yes | |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. | No | |
| input_type | string | Tipo de entrada de búsqueda de incrustación a utilizar | No | |
| encoding_format | string | El formato para devolver las incrustaciones. Puede ser cualquiera de float las dos o base64. Por defecto es float. |
No | |
| dimensions | integer | El número de dimensiones que deben tener las incrustaciones de salida resultantes. Solo soportado en text-embedding-3 y modelos posteriores. |
No |
Responses
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| object | string | Yes | ||
| model | string | Yes | ||
| data | array | Yes | ||
| usage | object | Yes |
Propiedades de uso
prompt_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| prompt_tokens | integer |
total_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| total_tokens | integer |
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Devuelven los embeddings de un prompt dado.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Respuestas: Código de estado: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chat completions
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Crea una finalización para el mensaje del chat
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID de despliegue del modelo que se desplegó. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Generalmente recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
| stream | boolean | Si se activa, se enviarán deltas parciales de mensajes, como en ChatGPT. Los tokens se enviarán como eventos solo de datos enviados por el servidor a medida que estén disponibles, con el flujo terminado por un data: [DONE] mensaje. |
No | False |
| stop | Cadena o matriz | Hasta cuatro secuencias en las que la API dejará de generar más tokens. |
No | |
| max_tokens | integer | El número máximo de tokens que se pueden generar en la finalización del chat. La longitud total de los tokens de entrada y los tokens generados está limitada por la longitud del contexto del modelo. |
No | |
| max_completion_tokens | integer | Un límite superior para el número de tokens que pueden generarse para una finalización, incluyendo tokens de salida visibles y tokens de razonamiento. | No | |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas. |
No | 0 |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente. |
No | 0 |
| logit_bias | object | Modifica la probabilidad de que los tokens especificados aparezcan en la completación. Acepta un objeto JSON que mapea los tokens (especificados por su ID de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente. |
No | None |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. |
No | |
| messages | array | Una lista de mensajes que componen la conversación hasta ahora. | Yes | |
| data_sources | array | Las entradas de configuración para las extensiones de chat de Azure OpenAI que las utilizan. Esta especificación adicional solo es compatible con Azure OpenAI. |
No | |
| logprobs | boolean | Si devolver las probabilidades logarítmicas de los tokens de salida o no. Si es cierto, devuelve las probabilidades logarítmicas de cada token de salida devuelto en el content de message. |
No | False |
| top_logprobs | integer | Un entero entre 0 y 20 que especifica el número de tokens más probables de devolver en cada posición de token, cada uno con una probabilidad logarítmica asociada.
logprobs debe establecerse en true si se usa este parámetro. |
No | |
| n | integer | Cuántas opciones de finalización de chat generar para cada mensaje de entrada. Ten en cuenta que se te cobrará según el número de tokens generados en todas las opciones. Mantente n en la medida 1 de minimizar costes. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Si activar la llamada de funciones paralelas durante el uso de la herramienta. | No | True |
| response_format | ResponseFormatoTexto o RespuestaFormatoJsonObjeto o RespuestaFormatoJsonSchema | Un objeto que especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4o mini, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo más nuevos que gpt-3.5-turbo-1106.Configurar para { "type": "json_schema", "json_schema": {...} } activa Structured Outputs, que garantiza que el modelo coincidirá con el esquema JSON que proporcionaste.Configurar para { "type": "json_object" } activa el modo JSON, que garantiza que el mensaje generado por el modelo sea JSON válido.Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto. |
No | |
| seed | integer | Esta función está en Beta. Si se especifica, nuestro sistema hará el mejor esfuerzo por muestrear determinísticamente, de modo que las solicitudes repetidas con los mismos seed parámetros y devuelvan el mismo resultado.El determinismo no está garantizado, y deberías consultar el system_fingerprint parámetro de respuesta para monitorizar los cambios en el backend. |
No | |
| tools | array | Una lista de herramientas que el modelo puede llamar. Actualmente, solo se soportan funciones como herramienta. Úsalo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. Se soportan un máximo de 128 funciones. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Controla qué herramienta (si la hay) llamada por el modelo.
none significa que el modelo no llamará a ninguna herramienta y en su lugar genera un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o más herramientas.
required significa que el modelo debe llamar a una o más herramientas. Especificar una herramienta concreta obliga {"type": "function", "function": {"name": "my_function"}} al modelo a llamar a esa herramienta.
none es el valor predeterminado cuando no hay herramientas presentes.
auto es el valor predeterminado si hay herramientas presentes. |
No | |
| function_call | cadena o chatCompletionFunctionCallOption | Obsoleto en favor de tool_choice.Controla qué función (si la llama) el modelo. none significa que el modelo no llamará a una función y en su lugar genera un mensaje.auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función.Especificar una función particular mediante {"name": "my_function"} obliga al modelo a llamar a esa función.none es el valor predeterminado cuando no hay funciones presentes.
auto es el valor predeterminado si hay funciones presentes. |
No | |
| functions | array | Obsoleto en favor de tools.Una lista de funciones para las que el modelo puede generar entradas JSON. |
No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createChatCompletionResponse o createChatCompletionStreamResponse |
Código de estado: por defecto
Descripción: Servicio no disponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crea una finalización para el prompt, los parámetros y el modelo elegido proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea una completación basada en los datos de Azure Search y la identidad gestionada asignada al sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea una finalización basada en los datos del vector de búsqueda de Azure, el mensaje del asistente anterior y la identidad gestionada asignada por el usuario.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea una finalización para la Azure Cosmos DB proporcionada.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcripciones - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Transcribe el audio al idioma de entrada.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID de despliegue del modelo de voz a texto. Para información sobre modelos compatibles, véase [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | El objeto de archivo de audio para transcribir. | Yes | |
| prompt | string | Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. El prompt debería coincidir con el lenguaje del audio. | No | |
| response_format | audioResponseFormat | Define el formato de la salida. | No | |
| temperature | number | La temperatura de muestreo, entre 0 y 1. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Si se establece en 0, el modelo usará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta alcanzar ciertos umbrales. | No | 0 |
| language | string | El idioma del audio de entrada. Suministrar el lenguaje de entrada en formato ISO-639-1 mejorará la precisión y la latencia. | No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioRespuesta o audioVerboseResponse | |
| text/plain | string | Texto transcrito en el formato de salida (cuando response_format era de texto, vtt o srt). |
Examples
Example
Obtiene texto transcrito y metadatos asociados de los datos de audio hablado proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Respuestas: Código de estado: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtiene texto transcrito y metadatos asociados de los datos de audio hablado proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traducciones - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Transcribe y traduce el audio de entrada a texto en inglés.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID de despliegue del modelo whisper que se desplegó. Para información sobre modelos compatibles, véase [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | El archivo de audio para traducir. | Yes | |
| prompt | string | Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. El prompt debería estar en inglés. | No | |
| response_format | audioResponseFormat | Define el formato de la salida. | No | |
| temperature | number | La temperatura de muestreo, entre 0 y 1. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Si se establece en 0, el modelo usará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta alcanzar ciertos umbrales. | No | 0 |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioRespuesta o audioVerboseResponse | |
| text/plain | string | Texto transcrito en el formato de salida (cuando response_format era de texto, vtt o srt). |
Examples
Example
Obtiene texto transcrito en inglés y metadatos asociados a partir de los datos de audio hablado proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtiene texto transcrito en inglés y metadatos asociados a partir de los datos de audio hablado proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Image generation
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Genera un lote de imágenes a partir de un pie de foto en un despliegue dado de un modelo dall-e
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID de despliegue del modelo dall-e que se desplegó. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string | Una descripción en texto de la(s) imagen(es) deseada(s). La longitud máxima es de 4.000 caracteres. | Yes | |
| n | integer | El número de imágenes que hay que generar. | No | 1 |
| size | imageSize | El tamaño de las imágenes generadas. | No | 1024x1024 |
| response_format | imagesResponseFormat | El formato en el que se devuelven las imágenes generadas. | No | url |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. | No | |
| quality | imageQuality | La calidad de la imagen que se generará. | No | standard |
| style | imageStyle | El estilo de las imágenes generadas. | No | vivid |
Responses
Código de estado: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Código de estado: por defecto
Descripción: Ha ocurrido un error.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Crea imágenes con un prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respuestas: Código de estado: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| param | string | No | ||
| type | string | No | ||
| inner_error | innerError | Error interno con detalles adicionales. | No |
innerError
Error interno con detalles adicionales.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Códigos de error para el objeto de error interno. | No | |
| content_filter_results | contentFilterPromptResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de clientes bloqueados, si ha sido filtrada y su identificación. | No |
innerErrorCode
Códigos de error para el objeto de error interno.
Descripción: Códigos de error para el objeto de error interno.
Type: string
Default:
Nombre de Enum: InnerErrorCode
Enum Values:
| Value | Description |
|---|---|
| ResponsibleAIPolicyViolation | El prompt violó una de las reglas más de filtro de contenido. |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| param | string | No | ||
| type | string | No | ||
| inner_error | dalleInnerError | Error interno con detalles adicionales. | No |
dalleInnerError
Error interno con detalles adicionales.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Códigos de error para el objeto de error interno. | No | |
| content_filter_results | dalleFilterResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de clientes bloqueados, si ha sido filtrada y su identificación. | No | |
| revised_prompt | string | El prompt que se usó para generar la imagen, si hubo alguna revisión del prompt. | No |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| detected | boolean | No |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No |
Propiedades de citación
URL
| Name | Type | Description | Default |
|---|---|---|---|
| URL | string |
license
| Name | Type | Description | Default |
|---|---|---|---|
| license | string |
contentFilterResultsBase
Información sobre los resultados del filtrado de contenido.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No |
contentFilterPromptResults
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de clientes bloqueados, si ha sido filtrada y su identificación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No | ||
| jailbreak | contentFilterDetectedResult | No |
contentFilterChoiceResults
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre mensajes de texto de terceros y palabrotas, si se han detectado y si han sido filtrados o no. Y información sobre la lista de clientes bloqueados, si ha sido filtrada y su identificación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No |
promptFilterResult
Filtrado de contenido resulta para un único prompt en la solicitud.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt_index | integer | No | ||
| content_filter_results | contentFilterPromptResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de clientes bloqueados, si ha sido filtrada y su identificación. | No |
promptFilterResults
Filtrado de contenido resulta para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de diferentes prompts pueden llegar en distintos momentos o en distintos órdenes.
No hay propiedades definidas para este componente.
dalleContentFilterResults
Información sobre los resultados del filtrado de contenido.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No |
dalleFilterResults
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de clientes bloqueados, si ha sido filtrada y su identificación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Generalmente recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
| stream | boolean | Si se activa, se enviarán deltas parciales de mensajes, como en ChatGPT. Los tokens se enviarán como eventos solo de datos enviados por el servidor a medida que estén disponibles, con el flujo terminado por un data: [DONE] mensaje. |
No | False |
| stop | Cadena o matriz | Hasta cuatro secuencias en las que la API dejará de generar más tokens. | No | |
| max_tokens | integer | El número máximo de tokens permitido para la respuesta generada. Por defecto, el número de tokens que el modelo puede devolver será (4096 - tokens de prompt). Este valor ahora está obsoleto en favor de max_completion_tokens, y no es compatible con los modelos de la serie O1. |
No | 4096 |
| max_completion_tokens | integer | Un límite superior para el número de tokens que pueden generarse para una finalización, incluyendo tokens de salida visibles y tokens de razonamiento. | No | |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas. | No | 0 |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente. | No | 0 |
| logit_bias | object | Modifica la probabilidad de que los tokens especificados aparezcan en la completación. Acepta un objeto json que mapea tokens (especificados por su ID de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente. | No | |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a Azure OpenAI a monitorizar y detectar abusos. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | Cadena o matriz | El(los) prompt(s) para generar completaciones para , codificado como una cadena, array de cadenas, array de tokens o array de tokens. Ten en cuenta que <|endoftext|> es el separador de documentos que el modelo ve durante el entrenamiento, así que si no se especifica un prompt, el modelo se generará como si fuera desde el principio de un nuevo documento. |
Yes | |
| best_of | integer | Genera best_of completaciones en el lado del servidor y devuelve el "mejor" (el que tiene la mayor probabilidad logarítmica por token). Los resultados no se pueden transmitir en streaming.Cuando se usa con n, best_of controla el número de completaciones candidatas y n especifica cuántas devolver â€" best_of debe ser mayor que n.Nota: Como este parámetro genera muchas completaciones, puede consumir rápidamente tu cuota de tokens. Úsalo con cuidado y asegúrate de tener configuraciones razonables para max_tokens y stop. |
No | 1 |
| echo | boolean | Haz eco del prompt además de la finalización |
No | False |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente. |
No | 0 |
| logit_bias | object | Modifica la probabilidad de que los tokens especificados aparezcan en la completación. Acepta un objeto JSON que mapea los tokens (especificados por su ID de token en el tokenizador GPT) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente. Por ejemplo, puedes pasar {"50256": -100} para evitar que se genere el <token |endoftext> |. |
No | None |
| logprobs | integer | Incluye las probabilidades logarítmicas de los logprobs tokens de salida más probables, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devolverá una lista de los cinco tokens más probables. La API siempre devolverá el logprob del token muestreado, por lo que puede haber hasta logprobs+1 hasta elementos en la respuesta.El valor máximo para logprobs es 5. |
No | None |
| max_tokens | integer | El número máximo de tokens que se pueden generar en la finalización. El recuento de tokens de tu prompt plus max_tokens no puede superar la longitud contextual del modelo. |
No | 16 |
| n | integer | Cuántas finalizaciones generar para cada prompt. Nota: Como este parámetro genera muchas completaciones, puede consumir rápidamente tu cuota de tokens. Úsalo con cuidado y asegúrate de tener configuraciones razonables para max_tokens y stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas. |
No | 0 |
| seed | integer | Si se especifica, nuestro sistema hará el mejor esfuerzo por muestrear determinísticamente, de modo que las solicitudes repetidas con los mismos seed parámetros y devuelvan el mismo resultado.El determinismo no está garantizado, y deberías consultar el system_fingerprint parámetro de respuesta para monitorizar los cambios en el backend. |
No | |
| stop | Cadena o matriz | Hasta cuatro secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de paradas. |
No | |
| stream | boolean | Si se debe refluir en un progreso parcial. Si se establece, los tokens se enviarán como eventos solo de datos enviados por el servidor a medida que estén disponibles, y el flujo terminará con un data: [DONE] mensaje. |
No | False |
| suffix | string | El sufijo que aparece después de completar el texto insertado. Este parámetro solo es compatible con gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Generalmente recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. |
No |
createCompletionResponse
Representa una respuesta de completación de la API. Nota: tanto los objetos de respuesta transmitidos como los no transmitidos comparten la misma forma (a diferencia del endpoint del chat).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Un identificador único para la finalización. | Yes | |
| choices | array | La lista de opciones de finalización que el modelo generó para el prompt de entrada. | Yes | |
| created | integer | La marca de tiempo de Unix (en segundos) de cuándo se creó la finalización. | Yes | |
| model | string | El modelo utilizado para la finalización. | Yes | |
| prompt_filter_results | promptFilterResults | Filtrado de contenido resulta para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de diferentes prompts pueden llegar en distintos momentos o en distintos órdenes. | No | |
| system_fingerprint | string | Esta huella dactilar representa la configuración del backend con la que se ejecuta el modelo. Puede usarse junto con el seed parámetro de solicitud para entender cuándo se han realizado cambios en el backend que puedan afectar al determinismo. |
No | |
| object | enum | El tipo de objeto, que siempre es "text_completion" Valores posibles: text_completion |
Yes | |
| usage | completionUsage | Estadísticas de uso para la solicitud de finalización. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Generalmente recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
| stream | boolean | Si se activa, se enviarán deltas parciales de mensajes, como en ChatGPT. Los tokens se enviarán como eventos solo de datos enviados por el servidor a medida que estén disponibles, con el flujo terminado por un data: [DONE] mensaje. |
No | False |
| stop | Cadena o matriz | Hasta cuatro secuencias en las que la API dejará de generar más tokens. |
No | |
| max_tokens | integer | El número máximo de tokens que se pueden generar en la finalización del chat. La longitud total de los tokens de entrada y los tokens generados está limitada por la longitud del contexto del modelo. |
No | |
| max_completion_tokens | integer | Un límite superior para el número de tokens que pueden generarse para una finalización, incluyendo tokens de salida visibles y tokens de razonamiento. | No | |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas. |
No | 0 |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente. |
No | 0 |
| logit_bias | object | Modifica la probabilidad de que los tokens especificados aparezcan en la completación. Acepta un objeto JSON que mapea los tokens (especificados por su ID de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente. |
No | None |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. |
No | |
| messages | array | Una lista de mensajes que componen la conversación hasta ahora. | Yes | |
| data_sources | array | Las entradas de configuración para las extensiones de chat de Azure OpenAI que las utilizan. Esta especificación adicional solo es compatible con Azure OpenAI. |
No | |
| logprobs | boolean | Si devolver las probabilidades logarítmicas de los tokens de salida o no. Si es cierto, devuelve las probabilidades logarítmicas de cada token de salida devuelto en el content de message. |
No | False |
| top_logprobs | integer | Un entero entre 0 y 20 que especifica el número de tokens más probables de devolver en cada posición de token, cada uno con una probabilidad logarítmica asociada.
logprobs debe establecerse en true si se usa este parámetro. |
No | |
| n | integer | Cuántas opciones de finalización de chat generar para cada mensaje de entrada. Ten en cuenta que se te cobrará según el número de tokens generados en todas las opciones. Mantente n en la medida 1 de minimizar costes. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Si activar la llamada de funciones paralelas durante el uso de la herramienta. | No | True |
| response_format | ResponseFormatoTexto o RespuestaFormatoJsonObjeto o RespuestaFormatoJsonSchema | Un objeto que especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4o mini, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo más nuevos que gpt-3.5-turbo-1106.Configurar para { "type": "json_schema", "json_schema": {...} } activa Structured Outputs, que garantiza que el modelo coincidirá con el esquema JSON que proporcionaste.Configurar para { "type": "json_object" } activa el modo JSON, que garantiza que el mensaje generado por el modelo sea JSON válido.Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto. |
No | |
| seed | integer | Esta función está en Beta. Si se especifica, nuestro sistema hará el mejor esfuerzo por muestrear determinísticamente, de modo que las solicitudes repetidas con los mismos seed parámetros y devuelvan el mismo resultado.El determinismo no está garantizado, y deberías consultar el system_fingerprint parámetro de respuesta para monitorizar los cambios en el backend. |
No | |
| tools | array | Una lista de herramientas que el modelo puede llamar. Actualmente, solo se soportan funciones como herramienta. Úsalo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. Se soportan un máximo de 128 funciones. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Controla qué herramienta (si la hay) llamada por el modelo.
none significa que el modelo no llamará a ninguna herramienta y en su lugar genera un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o más herramientas.
required significa que el modelo debe llamar a una o más herramientas. Especificar una herramienta concreta obliga {"type": "function", "function": {"name": "my_function"}} al modelo a llamar a esa herramienta.
none es el valor predeterminado cuando no hay herramientas presentes.
auto es el valor predeterminado si hay herramientas presentes. |
No | |
| function_call | cadena o chatCompletionFunctionCallOption | Obsoleto en favor de tool_choice.Controla qué función (si la llama) el modelo. none significa que el modelo no llamará a una función y en su lugar genera un mensaje.auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función.Especificar una función particular mediante {"name": "my_function"} obliga al modelo a llamar a esa función.none es el valor predeterminado cuando no hay funciones presentes.
auto es el valor predeterminado si hay funciones presentes. |
No | |
| functions | array | Obsoleto en favor de tools.Una lista de funciones para las que el modelo puede generar entradas JSON. |
No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Una descripción de lo que hace la función, utilizada por el modelo para elegir cuándo y cómo llamar a la función. | No | |
| name | string | El nombre de la función a llamar. Debe ser de la a-z, de la A a la Z, del 0 al 9, o contener guiones bajos y guiones, con una longitud máxima de 64. | Yes | |
| parameters | FunctionParameters | Los parámetros que aceptan las funciones se describen como un objeto de esquema JSON.
Consulta la guía para ejemplos y la referencia del esquema JSON para documentación sobre el formato. Omitir parameters define una función con una lista de parámetros vacía. |
No |
chatCompletionFunctionCallOption
Especificar una función particular mediante {"name": "my_function"} obliga al modelo a llamar a esa función.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | El nombre de la función a llamar. | Yes |
chatCompletionRequestMessage
Este componente puede ser uno de los siguientes:
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Cadena o matriz | El contenido del mensaje del sistema. | Yes | |
| role | enum | El papel del autor de los mensajes, en este caso system.Valores posibles: sistema |
Yes | |
| name | string | Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre participantes del mismo rol. | No |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Cadena o matriz | El contenido del mensaje de usuario. |
Yes | |
| role | enum | El papel del autor de los mensajes, en este caso user.Valores posibles: usuario |
Yes | |
| name | string | Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre participantes del mismo rol. | No |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Cadena o matriz | El contenido del mensaje de asistente. Obligatorio a menos que tool_calls se especifique o function_call se especifique. |
No | |
| refusal | string | El mensaje de rechazo del asistente. | No | |
| role | enum | El papel del autor de los mensajes, en este caso assistant.Valores posibles: asistente |
Yes | |
| name | string | Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre participantes del mismo rol. | No | |
| tool_calls | chatCompletionMessageToolCalls | Las llamadas a la herramienta generadas por el modelo, como las llamadas a funciones. | No | |
| function_call | object | Obsoleto y reemplazado por tool_calls. El nombre y los argumentos de una función que debe llamarse, tal como se genera el modelo. |
No |
Propiedades para function_call
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por tu esquema de función. Valida los argumentos de tu código antes de llamar a tu función. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | El nombre de la función a llamar. |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | El papel del autor de los mensajes, en este caso tool.Valores posibles: herramienta |
Yes | |
| content | Cadena o matriz | El contenido del mensaje de herramienta. | Yes | |
| tool_call_id | string | Llamada de herramienta a la que este mensaje está respondiendo. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | El papel del autor de los mensajes, en este caso function.Valores posibles: función |
Yes | |
| content | string | El contenido del mensaje de función. | Yes | |
| name | string | El nombre de la función a llamar. | Yes |
chatCompletionRequestSystemMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestUserMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestAssistantMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestToolMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | La parte del tipo de contenido. Valores posibles: texto |
Yes | |
| text | string | El contenido del texto. | Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | La parte del tipo de contenido. Valores posibles: image_url |
Yes | |
| image_url | object | Yes |
Propiedades para image_url
url
| Name | Type | Description | Default |
|---|---|---|---|
| url | string | O bien una URL de la imagen o los datos codificados en base64. |
detail
| Name | Type | Description | Default |
|---|---|---|---|
| detail | string | Especifica el nivel de detalle de la imagen. Aprende más en la guía de Visión. | auto |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | La parte del tipo de contenido. Valores posibles: rechazo |
Yes | |
| refusal | string | El mensaje de rechazo generado por el modelo. | Yes |
azureChatExtensionConfiguration
Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto será utilizado por un chat completions que deberían usar extensiones de chat de OpenAI de Azure para aumentar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI. |
Yes |
azureChatExtensionType
Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI.
Description: Una representación de datos de configuración para una única extensión de chat de OpenAI Azure. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI.
Type: string
Default:
Enum Name: AzureChatExtensionType
Enum Values:
| Value | Description |
|---|---|
| azure_search | Representa el uso de Azure Search como una extensión de chat de Azure OpenAI. |
| azure_cosmos_db | Representa el uso de Azure Cosmos DB como extensión de chat de Azure OpenAI. |
azureSearchChatExtensionConfiguration
Una representación específica de opciones configurables para Azure Search cuando se usa como una extensión de chat de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto será utilizado por un chat completions que deberían usar extensiones de chat de OpenAI de Azure para aumentar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI. |
Yes | |
| parameters | azureSearchChatExtensionParameters | Parámetros para Azure Search cuando se usan como extensión de chat de Azure OpenAI. | No |
azureSearchChatExtensionParameters
Parámetros para Azure Search cuando se usan como extensión de chat de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onTuDatosApiClaveOpciones de Autenticación o onTuTDataSystemAsignadoGestionadoOpciones de AutenticaciónIdentidad o onTiDatosUsuarioAsignadoGestionadoIdentidadOpciones de Autenticación | Yes | ||
| top_n_documents | integer | El número superior configurado de documentos para destacar en la consulta configurada. | No | |
| in_scope | boolean | Si las consultas deben restringirse al uso de datos indexados. | No | |
| strictness | integer | La estricta configuración del filtrado de relevancia en la búsqueda. Cuanto más estricta es la rigurosidad, mayor es la precisión pero menor es la memoria de la respuesta. | No | |
| role_information | string | Dale al modelo instrucciones sobre cómo debe comportarse y cualquier contexto que deba consultar al generar una respuesta. Puedes describir la personalidad del asistente y decirle cómo formatear las respuestas. Hay un límite de 100 tokens para ella, y cuenta para el límite total de tokens. | No | |
| endpoint | string | La ruta final absoluta para que el recurso de Azure Search la utilice. | Yes | |
| index_name | string | El nombre del índice a usar está disponible en el recurso de búsqueda de Azure referenciado. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Opciones para controlar cómo se procesan los campos cuando se utiliza un recurso de Azure Search configurado. | No | |
| query_type | azureSearchQueryType | El tipo de consulta de recuperación de Azure Search que debe ejecutarse al usarla como extensión de chat de OpenAI en Azure. | No | |
| semantic_configuration | string | La configuración semántica adicional para la consulta. | No | |
| filter | string | Search filter. | No | |
| embedding_dependency | onTusDataDataEndpointVectorizaciónFuente o onTuDataDesdespliegueNombreVectorizaciónFuente | No |
azureSearchIndexFieldMappingOptions
Opciones para controlar cómo se procesan los campos cuando se utiliza un recurso de Azure Search configurado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| title_field | string | El nombre del campo índice para usar como título. | No | |
| url_field | string | El nombre del campo índice para usar como URL. | No | |
| filepath_field | string | El nombre del campo índice para usar como ruta de archivo. | No | |
| content_fields | array | Los nombres de los campos índice que deben tratarse como contenido. | No | |
| content_fields_separator | string | El patrón de separación que deberían usar los campos de contenido. | No | |
| vector_fields | array | Los nombres de los campos que representan datos vectoriales. | No |
azureSearchQueryType
El tipo de consulta de recuperación de Azure Search que debe ejecutarse al usarla como extensión de chat de OpenAI en Azure.
Description: El tipo de consulta de recuperación de búsqueda Azure que debe ejecutarse al usarla como una extensión de chat Azure OpenAI.
Type: string
Default:
Enum Name: AzureSearchQueryType
Enum Values:
| Value | Description |
|---|---|
| simple | Representa el analizador de consultas por defecto y simple. |
| semantic | Representa el analizador semántico de consultas para modelado semántico avanzado. |
| vector | Representa la búsqueda vectorial sobre datos calculados. |
| vector_simple_hybrid | Representa una combinación de la estrategia de consulta simple con datos vectoriales. |
| vector_semantic_hybrid | Representa una combinación de búsqueda semántica y consulta de datos vectoriales. |
azureCosmosDBChatExtensionConfiguration
Una representación específica de opciones configurables para Azure Cosmos DB al usarlo como extensión de chat de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto será utilizado por un chat completions que deberían usar extensiones de chat de OpenAI de Azure para aumentar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI. |
Yes | |
| parameters | azureCosmosDBChatExtensionParameters | Parámetros a usar al configurar extensiones de chat de Azure OpenAI On Your Data al usar Azure Cosmos DB para MongoDB vCore. |
No |
azureCosmosDBChatExtensionParameters
Parámetros a usar al configurar las extensiones de chat de Azure OpenAI On Your Data al usar Azure Cosmos DB para MongoDB vCore.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataConnectionStringAuthenticationOptions | Las opciones de autenticación para Azure OpenAI On Your Data al usar una cadena de conexión. | Yes | |
| top_n_documents | integer | El número superior configurado de documentos para destacar en la consulta configurada. | No | |
| in_scope | boolean | Si las consultas deben restringirse al uso de datos indexados. | No | |
| strictness | integer | La estricta configuración del filtrado de relevancia en la búsqueda. Cuanto más estricta es la rigurosidad, mayor es la precisión pero menor es la memoria de la respuesta. | No | |
| role_information | string | Dale al modelo instrucciones sobre cómo debe comportarse y cualquier contexto que deba consultar al generar una respuesta. Puedes describir la personalidad del asistente y decirle cómo formatear las respuestas. Hay un límite de 100 tokens para ella, y cuenta para el límite total de tokens. | No | |
| database_name | string | El nombre de la base de datos MongoDB vCore para usar con Azure Cosmos DB. | Yes | |
| container_name | string | El nombre del contenedor de recursos de Azure Cosmos DB. | Yes | |
| index_name | string | El nombre del índice MongoDB vCore para usar con Azure Cosmos DB. | Yes | |
| fields_mapping | azureCosmosDBFieldMappingOptions | Configuraciones opcionales para controlar cómo se procesan los campos cuando se utiliza un recurso configurado de Azure Cosmos DB. | Yes | |
| embedding_dependency | onTusDataDataEndpointVectorizaciónFuente o onTuDataDesdespliegueNombreVectorizaciónFuente | Yes |
azureCosmosDBFieldMappingOptions
Configuraciones opcionales para controlar cómo se procesan los campos cuando se utiliza un recurso configurado de Azure Cosmos DB.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| title_field | string | El nombre del campo índice para usar como título. | No | |
| url_field | string | El nombre del campo índice para usar como URL. | No | |
| filepath_field | string | El nombre del campo índice para usar como ruta de archivo. | No | |
| content_fields | array | Los nombres de los campos índice que deben tratarse como contenido. | Yes | |
| content_fields_separator | string | El patrón de separación que deberían usar los campos de contenido. | No | |
| vector_fields | array | Los nombres de los campos que representan datos vectoriales. | Yes |
onYourDataAuthenticationOptions
Las opciones de autenticación para Azure OpenAI en tus datos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Los tipos de autenticación soportados con Azure OpenAI On Your Data. | Yes |
onYourDataAuthenticationType
Los tipos de autenticación soportados con Azure OpenAI On Your Data.
Description: Los tipos de autenticación compatibles con Azure OpenAI On Your Data.
Type: string
Default:
Nombre de Enum: OnYourDataAuthenticationType
Enum Values:
| Value | Description |
|---|---|
| api_key | Autenticación mediante clave API. |
| connection_string | Autenticación mediante cadena de conexión. |
| system_assigned_managed_identity | Autenticación mediante identidad gestionada asignada por el sistema. |
| user_assigned_managed_identity | Autenticación mediante identidad gestionada asignada por el usuario. |
onYourDataApiKeyAuthenticationOptions
Las opciones de autenticación para Azure OpenAI On Your Data al usar una clave API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Los tipos de autenticación soportados con Azure OpenAI On Your Data. | Yes | |
| key | string | La clave API para usar para la autenticación. | No |
onYourDataConnectionStringAuthenticationOptions
Las opciones de autenticación para Azure OpenAI On Your Data al usar una cadena de conexión.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Los tipos de autenticación soportados con Azure OpenAI On Your Data. | Yes | |
| connection_string | string | La cadena de conexión para usar para autenticación. | No |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Las opciones de autenticación para Azure OpenAI On Your Data cuando se utiliza una identidad gestionada asignada por el sistema.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Los tipos de autenticación soportados con Azure OpenAI On Your Data. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Las opciones de autenticación para Azure OpenAI On Your Data cuando se utiliza una identidad gestionada asignada por el usuario.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Los tipos de autenticación soportados con Azure OpenAI On Your Data. | Yes | |
| managed_identity_resource_id | string | El ID de recurso de la identidad gestionada asignada por el usuario para usar en la autenticación. | No |
onYourDataVectorizationSource
Una representación abstracta de una fuente de vectorización para Azure OpenAI On Your Data con búsqueda vectorial.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con vector search. |
Yes |
onYourDataVectorizationSourceType
Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con búsqueda vectorial.
Description: Representa las fuentes disponibles Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con
vector search.
Type: string
Default:
Nombre de enum: OnYourDataVectorizationSourceType
Enum Values:
| Value | Description |
|---|---|
| endpoint | Representa la vectorización realizada por llamadas de servicio público a un modelo de incrustación de Azure OpenAI. |
| deployment_name | Representa el nombre de un modelo de despliegue Ada para usar. Este despliegue de modelo debe estar en el mismo recurso de Azure OpenAI, pero On Your Data usará este modelo para desplegarse mediante una llamada interna en lugar de pública, lo que permite vector Busca incluso en redes privadas. |
onYourDataDeploymentNameVectorizationSource
Los detalles de una fuente de vectorización, utilizada por Azure OpenAI On Your Data al aplicar búsqueda vectorial, se basa en un nombre interno de despliegue de modelo de embeddings en el mismo recurso de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con vector search. |
Yes | |
| deployment_name | string | Especifica el nombre del despliegue del modelo que se va a usar para la vectorización. Este despliegue de modelo debe realizarse en el mismo recurso de OpenAI de Azure, pero On Your Data usará este despliegue de modelo mediante una llamada interna en lugar de pública, lo que permite la búsqueda vectorial incluso en redes privadas. | No |
onYourDataEndpointVectorizationSource
Los detalles de una fuente de vectorización, utilizada por Azure OpenAI On Your Data al aplicar la búsqueda vectorial, se basa en una llamada pública de endpoint de Azure OpenAI para embeddings.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con vector search. |
Yes | |
| authentication | onYourDataApiKeyAuthenticationOptions | Las opciones de autenticación para Azure OpenAI On Your Data al usar una clave API. | No | |
| endpoint | string | Especifica el punto final a usar para la vectorización. Este endpoint debe estar en el mismo recurso de Azure OpenAI, pero On Your Data usará este endpoint mediante una llamada interna en lugar de pública, lo que permite la búsqueda vectorial incluso en redes privadas. | No |
azureChatExtensionsMessageContext
Una representación de la información contextual adicional disponible cuando las extensiones de chat de Azure OpenAI están involucradas en la generación de una respuesta correspondiente a la finalización del chat. Esta información contextual solo se rellena cuando se utiliza una solicitud OpenAI de Azure configurada para usar una extensión correspondiente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citations | array | El resultado de recuperación de la fuente de datos, utilizado para generar el mensaje asistente en la respuesta. | No | |
| intent | string | La intención detectada del historial de chat, que se usaba para pasar al siguiente turno y mantener el contexto. | No |
citation
Información de cita para un mensaje de respuesta a la finalización de un chat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | El contenido de la cita. | Yes | |
| title | string | El título de la cita. | No | |
| url | string | La URL de la cita. | No | |
| filepath | string | La ruta del archivo de la cita. | No | |
| chunk_id | string | La identificación del fragmento de la multa. | No |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | El ID de la llamada de herramienta. | Yes | |
| type | toolCallType | El tipo de llamada a la herramienta, en este caso function. |
Yes | |
| function | object | La función que llamó el modelo. | Yes |
Propiedades para la función
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | El nombre de la función a llamar. |
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por tu esquema de función. Valida los argumentos de tu código antes de llamar a tu función. |
toolCallType
El tipo de llamada a la herramienta, en este caso function.
Descripción: El tipo de llamada a la herramienta, en este caso function.
Type: string
Default:
Nombre de Enum: ToolCallType
Enum Values:
| Value | Description |
|---|---|
| function | El tipo de llamada a la herramienta es función. |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_call_id | string | Llamada de herramienta a la que este mensaje está respondiendo. | No | |
| content | string | El contenido del mensaje. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | El papel del autor de los mensajes, en este caso function.Valores posibles: función |
No | |
| name | string | El contenido del mensaje. | No | |
| content | string | El contenido del mensaje. | No |
createChatCompletionResponse
Representa una respuesta de finalización del chat devolvida por el modelo, basada en la entrada proporcionada.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Un identificador único para la finalización del chat. | Yes | |
| prompt_filter_results | promptFilterResults | Filtrado de contenido resulta para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de diferentes prompts pueden llegar en distintos momentos o en distintos órdenes. | No | |
| choices | array | Una lista de opciones para completar el chat. Puede ser más de uno si n es mayor que 1. |
Yes | |
| created | integer | La marca de tiempo de Unix (en segundos) de cuándo se creó la finalización del chat. | Yes | |
| model | string | El modelo utilizado para completar el chat. | Yes | |
| system_fingerprint | string | Esta huella dactilar representa la configuración del backend con la que se ejecuta el modelo. Puede usarse junto con el seed parámetro de solicitud para entender cuándo se han realizado cambios en el backend que puedan afectar al determinismo. |
No | |
| object | enum | El tipo de objeto, que es siempre chat.completion.Valores posibles: chat.completion |
Yes | |
| usage | completionUsage | Estadísticas de uso para la solicitud de finalización. | No |
createChatCompletionStreamResponse
Representa un fragmento transmitido de una respuesta de finalización de chat devuelto por el modelo, basado en la entrada proporcionada.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Un identificador único para la finalización del chat. Cada bloque tiene el mismo ID. | Yes | |
| choices | array | Una lista de opciones para completar el chat. Puede contener más de un elemento si n es mayor que 1. |
Yes | |
| created | integer | La marca de tiempo de Unix (en segundos) de cuándo se creó la finalización del chat. Cada bloque tiene la misma marca de tiempo. | Yes | |
| model | string | El modelo para generar la completación. | Yes | |
| system_fingerprint | string | Esta huella dactilar representa la configuración del backend con la que se ejecuta el modelo. Puede usarse junto con el seed parámetro de solicitud para entender cuándo se han realizado cambios en el backend que puedan afectar al determinismo. |
No | |
| object | enum | El tipo de objeto, que es siempre chat.completion.chunk.Valores posibles: chat.completion.chunk |
Yes |
chatCompletionStreamResponseDelta
Un delta de completación del chat generado por las respuestas del modelo en streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | El contenido del mensaje chunk. | No | |
| function_call | object | Obsoleto y reemplazado por tool_calls. El nombre y los argumentos de una función que debe llamarse, tal como se genera el modelo. |
No | |
| tool_calls | array | No | ||
| role | enum | El papel del autor de este mensaje. Valores posibles: sistema, usuario, asistente, herramienta |
No | |
| refusal | string | El mensaje de rechazo generado por el modelo. | No |
Propiedades para function_call
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por tu esquema de función. Valida los argumentos de tu código antes de llamar a tu función. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | El nombre de la función a llamar. |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Yes | ||
| id | string | El ID de la llamada de herramienta. | No | |
| type | enum | El tipo de herramienta. Actualmente, solo function está soportado.Valores posibles: función |
No | |
| function | object | No |
Propiedades para la función
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | El nombre de la función a llamar. |
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por tu esquema de función. Valida los argumentos de tu código antes de llamar a tu función. |
chatCompletionStreamOptions
Opciones para la respuesta en streaming. Solo se configura esto cuando se configura stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Si se activa, se transmitirá un fragmento adicional antes del data: [DONE] mensaje. El usage campo en este fragmento muestra las estadísticas de uso de tokens para toda la petición, y el choices campo siempre será un array vacío. Todos los demás chunks también incluirán un usage campo, pero con valor nulo. |
No |
chatCompletionChoiceLogProbs
Registra la información de probabilidad para la elección.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Una lista de tokens de contenido de mensajes con información de probabilidad logarítmica. | Yes | |
| refusal | array | Una lista de tokens de rechazo de mensajes con información de probabilidad logarítmica. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| token | string | The token. | Yes | |
| logprob | number | La probabilidad logarítmica de este token. | Yes | |
| bytes | array | Una lista de enteros que representan la representación UTF-8 bytes del token. Útil en casos donde los caracteres están representados por múltiples tokens y sus representaciones en bytes deben combinarse para generar la representación correcta del texto. Puede serlo null si no hay representación en bytes para el token. |
Yes | |
| top_logprobs | array | Lista de las fichas más probables y su probabilidad logarítmica, en esta posición de ficha. En casos raros, puede haber menos que el número de solicitados top_logprobs devueltos. |
Yes |
chatCompletionResponseMessage
Un mensaje de finalización del chat generado por el modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | chatCompletionResponseMessageRole | El papel del autor del mensaje de respuesta. | Yes | |
| refusal | string | El mensaje de rechazo generado por el modelo. | Yes | |
| content | string | El contenido del mensaje. | Yes | |
| tool_calls | array | Las llamadas a la herramienta generadas por el modelo, como las llamadas a funciones. | No | |
| function_call | chatCompletionFunctionCall | Obsoleto y reemplazado por tool_calls. El nombre y los argumentos de una función que debe llamarse, tal como se genera el modelo. |
No | |
| context | azureChatExtensionsMessageContext | Una representación de la información contextual adicional disponible cuando se involucran extensiones de chat de Azure OpenAI en la generación de una respuesta correspondiente de finalización del chat. Esta información de contexto solo se rellena cuando usando una solicitud OpenAI de Azure configurada para usar una extensión correspondiente. |
No |
chatCompletionResponseMessageRole
El papel del autor del mensaje de respuesta.
Descripción: El papel del autor del mensaje de respuesta.
Type: string
Default:
Enum Values:
- assistant
chatCompletionToolChoiceOption
Controla qué herramienta (si la hay) llamada por el modelo.
none significa que el modelo no llamará a ninguna herramienta y en su lugar genera un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o más herramientas.
required significa que el modelo debe llamar a una o más herramientas. Especificar una herramienta concreta obliga {"type": "function", "function": {"name": "my_function"}} al modelo a llamar a esa herramienta.
none es el valor predeterminado cuando no hay herramientas presentes.
auto es el valor predeterminado si hay herramientas presentes.
Este componente puede ser uno de los siguientes:
chatCompletionNamedToolChoice
Especifica una herramienta que debe usar el modelo. Úsalo para forzar que el modelo llame a una función específica.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | El tipo de herramienta. Actualmente, solo function está soportado.Valores posibles: función |
Yes | |
| function | object | Yes |
Propiedades para la función
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | El nombre de la función a llamar. |
ParallelToolCalls
Si activar la llamada de funciones paralelas durante el uso de la herramienta.
No hay propiedades definidas para este componente.
chatCompletionMessageToolCalls
Las llamadas a la herramienta generadas por el modelo, como las llamadas a funciones.
No hay propiedades definidas para este componente.
chatCompletionFunctionCall
Obsoleto y reemplazado por tool_calls. El nombre y los argumentos de una función que debe llamarse, tal como se genera el modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | El nombre de la función a llamar. | Yes | |
| arguments | string | Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por tu esquema de función. Valida los argumentos de tu código antes de llamar a tu función. | Yes |
completionUsage
Estadísticas de uso para la solicitud de finalización.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt_tokens | integer | Número de fichas en el prompt. | Yes | |
| completion_tokens | integer | Número de tokens en la finalización generada. | Yes | |
| total_tokens | integer | Número total de tokens utilizados en la solicitud (prompt + completación). | Yes | |
| completion_tokens_details | object | Desglose de los tokens usados en una finalización. | No |
Propiedades para completion_tokens_details
reasoning_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| reasoning_tokens | integer | Tokens generados por el modelo para razonamiento. |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | El tipo de herramienta. Actualmente, solo function está soportado.Valores posibles: función |
Yes | |
| function | FunctionObject | Yes |
FunctionParameters
Los parámetros que aceptan las funciones se describen como un objeto de esquema JSON. Consulta la guía para ejemplos y la referencia del esquema JSON para documentación sobre el formato.
Omitir parameters define una función con una lista de parámetros vacía.
No hay propiedades definidas para este componente.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Una descripción de lo que hace la función, utilizada por el modelo para elegir cuándo y cómo llamar a la función. | No | |
| name | string | El nombre de la función a llamar. Debe ser de la a-z, de la A a la Z, del 0 al 9, o contener guiones bajos y guiones, con una longitud máxima de 64. | Yes | |
| parameters | FunctionParameters | Los parámetros que aceptan las funciones se describen como un objeto de esquema JSON.
Consulta la guía para ejemplos y la referencia del esquema JSON para documentación sobre el formato. Omitir parameters define una función con una lista de parámetros vacía. |
No | |
| strict | boolean | Si se debe habilitar la adhesión estricta al esquema al generar la llamada a la función. Si se establece como verdadero, el modelo seguirá el esquema exacto definido en el parameters campo. Solo se soporta un subconjunto de JSON Schema cuando strict es true. |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | El tipo de formato de respuesta que se está definiendo: textValores posibles: texto |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | El tipo de formato de respuesta que se está definiendo: json_objectValores posibles: json_object |
Yes |
ResponseFormatJsonSchemaSchema
El esquema para el formato de respuesta, descrito como un objeto de esquema JSON.
No hay propiedades definidas para este componente.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | El tipo de formato de respuesta que se está definiendo: json_schemaValores posibles: json_schema |
Yes | |
| json_schema | object | Yes |
Propiedades para json_schema
description
| Name | Type | Description | Default |
|---|---|---|---|
| description | string | Una descripción de para qué sirve el formato de respuesta, utilizada por el modelo para determinar cómo responder en el formato. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | El nombre del formato de respuesta. Debe ser de la a-z, de la A a la Z, del 0 al 9, o contener guiones bajos y guiones, con una longitud máxima de 64. |
schema
| Name | Type | Description | Default |
|---|---|---|---|
| schema | ResponseFormatJsonSchemaSchema | El esquema para el formato de respuesta, descrito como un objeto de esquema JSON. |
strict
| Name | Type | Description | Default |
|---|---|---|---|
| strict | boolean | Si se debe habilitar una adhesión estricta al esquema al generar la salida. Si se establece como verdadero, el modelo siempre seguirá el esquema exacto definido en el schema campo. Solo se soporta un subconjunto de JSON Schema cuando strict es true. |
False |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | No | ||
| finish_reason | string | No |
createTranslationRequest
Translation request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | El archivo de audio para traducir. | Yes | |
| prompt | string | Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. El prompt debería estar en inglés. | No | |
| response_format | audioResponseFormat | Define el formato de la salida. | No | |
| temperature | number | La temperatura de muestreo, entre 0 y 1. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Si se establece en 0, el modelo usará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta alcanzar ciertos umbrales. | No | 0 |
audioResponse
Respuesta de traducción o transcripción cuando response_format era json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Texto traducido o transcrito. | Yes |
audioVerboseResponse
Respuesta de traducción o transcripción cuando response_format estaba verbose_json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Texto traducido o transcrito. | Yes | |
| task | string | Tipo de tarea de audio. | No | |
| language | string | Language. | No | |
| duration | number | Duration. | No | |
| segments | array | No |
audioResponseFormat
Define el formato de la salida.
Descripción: Define el formato de la salida.
Type: string
Default:
Enum Values:
- json
- text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Transcription request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | El objeto de archivo de audio para transcribir. | Yes | |
| prompt | string | Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. El prompt debería coincidir con el lenguaje del audio. | No | |
| response_format | audioResponseFormat | Define el formato de la salida. | No | |
| temperature | number | La temperatura de muestreo, entre 0 y 1. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Si se establece en 0, el modelo usará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta alcanzar ciertos umbrales. | No | 0 |
| language | string | El idioma del audio de entrada. Suministrar el lenguaje de entrada en formato ISO-639-1 mejorará la precisión y la latencia. | No |
audioSegment
Segmento de transcripción o traducción.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | integer | Segment identifier. | No | |
| seek | number | Desplazamiento del segmento. | No | |
| start | number | Inicio de segmento desplazado. | No | |
| end | number | Desplazamiento de final de segmento. | No | |
| text | string | Segment text. | No | |
| tokens | array | Símbolos del texto. | No | |
| temperature | number | Temperature. | No | |
| avg_logprob | number | Probabilidad logarítmica media. | No | |
| compression_ratio | number | Compression ratio. | No | |
| no_speech_prob | number | Probabilidad de no speech. |
No |
imageQuality
La calidad de la imagen que se generará.
Descripción: La calidad de la imagen que se generará.
Type: string
Default: standard
Nombre Enum: Quality
Enum Values:
| Value | Description |
|---|---|
| standard | La calidad estándar crea imágenes con calidad estándar. |
| hd | La calidad HD crea imágenes con detalles más finos y mayor consistencia en toda la imagen. |
imagesResponseFormat
El formato en el que se devuelven las imágenes generadas.
Descripción: El formato en el que se devuelven las imágenes generadas.
Type: string
Default: url
Nombre de Enum: ImágenesFormatoRespuesta
Enum Values:
| Value | Description |
|---|---|
| url | La URL que proporciona acceso temporal para descargar las imágenes generadas. |
| b64_json | Las imágenes generadas se devuelven como cadena codificada en base64. |
imageSize
El tamaño de las imágenes generadas.
Descripción: El tamaño de las imágenes generadas.
Type: string
Default: 1024x1024
Nombre de Enum: Tamaño
Enum Values:
| Value | Description |
|---|---|
| 1792x1024 | El tamaño deseado de la imagen generada es de 1792x1024 píxeles. |
| 1024x1792 | El tamaño deseado de la imagen generada es de 1024x1792 píxeles. |
| 1024x1024 | El tamaño deseado de la imagen generada es 1024x1024 píxeles. |
imageStyle
El estilo de las imágenes generadas.
Descripción: El estilo de las imágenes generadas.
Type: string
Default: vivid
Nombre de Enum: Style
Enum Values:
| Value | Description |
|---|---|
| vivid | Vivid crea imágenes hiperrealistas y dramáticas. |
| natural | Natural crea imágenes más naturales y menos hiperrealistas. |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string | Una descripción en texto de la(s) imagen(es) deseada(s). La longitud máxima es de 4.000 caracteres. | Yes | |
| n | integer | El número de imágenes que hay que generar. | No | 1 |
| size | imageSize | El tamaño de las imágenes generadas. | No | 1024x1024 |
| response_format | imagesResponseFormat | El formato en el que se devuelven las imágenes generadas. | No | url |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. | No | |
| quality | imageQuality | La calidad de la imagen que se generará. | No | standard |
| style | imageStyle | El estilo de las imágenes generadas. | No | vivid |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | La marca de tiempo de Unix cuando se creó la operación. | Yes | |
| data | array | Los datos de resultados de la operación, si tienen éxito | Yes |
imageResult
La URL de la imagen o la imagen codificada si tienen éxito, y un error en caso contrario.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| url | string | La URL de la imagen. | No | |
| b64_json | string | La imagen codificada base64 | No | |
| content_filter_results | dalleContentFilterResults | Información sobre los resultados del filtrado de contenido. | No | |
| revised_prompt | string | El prompt que se usó para generar la imagen, si hubo alguna revisión del prompt. | No | |
| prompt_filter_results | dalleFilterResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de clientes bloqueados, si ha sido filtrada y su identificación. | No |
Completions extensions
Las extensiones de completiones no forman parte de la última versión de GA de la especificación de inferencia del plano de datos de Azure OpenAI.
Chatmessage
El objeto de mensaje Chat no forma parte de la última versión de GA de la especificación de inferencia del plano de datos de Azure OpenAI.
Texto a voz (Vista previa)
Actualmente no forma parte de la última versión Azure OpenAI GA de la especificación de inferencia de planos de datos de OpenAI Azure. Consulte la última versión previsualización para esta capacidad.
Next steps
Aprende sobre modelos y ajustes finos con la API REST. Obtenga más información sobre los modelos underlying que potencian Azure OpenAI.