Azure OpenAI en Microsoft Foundry Models Referencia a la API REST (clásico)

Visualización actual:Versión - del portal de Foundry (clásico)Cambio a la versión del nuevo portal de Foundry

Note

Los vínculos de este artículo pueden abrir contenido en la nueva documentación de Microsoft Foundry en lugar de la documentación de Foundry (clásico) que está viendo ahora.

Este artículo ofrece detalles sobre los endpoints de la API REST de inferencia para Azure OpenAI.

API specs

La gestión e interacción con los modelos y recursos de OpenAI de Azure se divide en tres superficies principales de API:

  • Control plane
  • Plano de datos - creación
  • Plano de datos - inferencia

Cada superficie/especificación de API encapsula un conjunto diferente de capacidades de Azure OpenAI. Cada API tiene su propio conjunto único de versiones de vista previa y de APIs estables/disponibles en general (GA). Actualmente, los lanzamientos de vista previa tienden a seguir un ritmo mensual.

Important

Ahora existe una nueva API de inferencia de vista previa. Descubre más en nuestra guía del ciclo de vida de la API.

API Última versión previa Último lanzamiento de GA Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files La API del plano de control se utiliza para operaciones como la creación de recursos, el despliegue de modelos y otras tareas de gestión de recursos de mayor nivel. El plano de control también regula lo que es posible hacer con capacidades como Azure Resource Manager, Bicep, Terraform y CLI de Azure.
Data plane v1 preview v1 Spec files La API del plano de datos controla las operaciones de inferencia y autoría.

Authentication

Azure OpenAI ofrece dos métodos de autenticación. Puedes usar API Keys o Microsoft Entra ID.

  • Autenticación de clave API: Para este tipo de autenticación, todas las solicitudes API deben incluir la clave API en la api-key cabecera HTTP. El Quickstart ofrece orientación sobre cómo realizar llamadas con este tipo de autenticación.

  • Microsoft Entra ID: Puedes autenticar una llamada API usando un token Microsoft Entra. Los tokens de autenticación se incluyen en una solicitud como Authorization cabecera. El token proporcionado debe ir precedido por Bearer, por ejemplo Bearer YOUR_AUTH_TOKEN. Puedes leer nuestra guía práctica sobre autenticación con Microsoft Entra ID.

Versionado de la API REST

Las APIs de servicio se versionan usando el api-version parámetro de consulta. Todas las versiones siguen la estructura de fechas YYYY-MM-DD. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferencia en planos de datos

El resto del artículo trata sobre la versión GA de la especificación de inferencia de planos de datos de OpenAI Azure 2024-10-21.

Si buscas documentación sobre la última versión de la API de vista previa, consulta la última API de inferencia de planos de datos de vista previa

Completions

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

Crea una finalización para el prompt, los parámetros y el modelo elegido proporcionados.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string ID de despliegue del modelo que se desplegó.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Proporciona aquí la clave API de Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
prompt Cadena o matriz El(los) prompt(s) para generar completaciones para , codificado como una cadena, array de cadenas, array de tokens o array de tokens.

Ten en cuenta que <|endoftext|> es el separador de documentos que el modelo ve durante el entrenamiento, así que si no se especifica un prompt, el modelo se generará como si fuera desde el principio de un nuevo documento.
Yes
best_of integer Genera best_of completaciones en el lado del servidor y devuelve el "mejor" (el que tiene la mayor probabilidad logarítmica por token). Los resultados no se pueden transmitir en streaming.

Cuando se usa con n, best_of controla el número de completaciones candidatas y n especifica cuántas devolver â€" best_of debe ser mayor que n.

Nota: Como este parámetro genera muchas completaciones, puede consumir rápidamente tu cuota de tokens. Úsalo con cuidado y asegúrate de tener configuraciones razonables para max_tokens y stop.
No 1
echo boolean Haz eco del prompt además de la finalización
No False
frequency_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente.
No 0
logit_bias object Modifica la probabilidad de que los tokens especificados aparezcan en la completación.

Acepta un objeto JSON que mapea los tokens (especificados por su ID de token en el tokenizador GPT) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente.

Por ejemplo, puedes pasar {"50256": -100} para evitar que se genere el <token |endoftext> |.
No None
logprobs integer Incluye las probabilidades logarítmicas de los logprobs tokens de salida más probables, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devolverá una lista de los cinco tokens más probables. La API siempre devolverá el logprob del token muestreado, por lo que puede haber hasta logprobs+1 hasta elementos en la respuesta.

El valor máximo para logprobs es 5.
No None
max_tokens integer El número máximo de tokens que se pueden generar en la finalización.

El recuento de tokens de tu prompt plus max_tokens no puede superar la longitud contextual del modelo.
No 16
n integer Cuántas finalizaciones generar para cada prompt.

Nota: Como este parámetro genera muchas completaciones, puede consumir rápidamente tu cuota de tokens. Úsalo con cuidado y asegúrate de tener configuraciones razonables para max_tokens y stop.
No 1
presence_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas.
No 0
seed integer Si se especifica, nuestro sistema hará el mejor esfuerzo por muestrear determinísticamente, de modo que las solicitudes repetidas con los mismos seed parámetros y devuelvan el mismo resultado.

El determinismo no está garantizado, y deberías consultar el system_fingerprint parámetro de respuesta para monitorizar los cambios en el backend.
No
stop Cadena o matriz Hasta cuatro secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de paradas.
No
stream boolean Si se debe refluir en un progreso parcial. Si se establece, los tokens se enviarán como eventos solo de datos enviados por el servidor a medida que estén disponibles, y el flujo terminará con un data: [DONE] mensaje. No False
suffix string El sufijo que aparece después de completar el texto insertado.

Este parámetro solo es compatible con gpt-3.5-turbo-instruct.
No None
temperature number Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista.

Generalmente recomendamos modificar esto o top_p , pero no ambos.
No 1
top_p number Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%.

Generalmente recomendamos modificar esto o temperature , pero no ambos.
No 1
user string Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos.
No

Responses

Código de estado: 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse Representa una respuesta de completación de la API. Nota: tanto los objetos de respuesta transmitidos como los no transmitidos comparten la misma forma (a diferencia del endpoint del chat).

Código de estado: por defecto

Descripción: Servicio no disponible

Content-Type Type Description
application/json errorResponse

Examples

Example

Crea una finalización para el prompt, los parámetros y el modelo elegido proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Embeddings

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

Obtén una representación vectorial de una entrada dada que pueda ser fácilmente consumida por modelos y algoritmos de aprendizaje automático.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Proporciona aquí la clave API de Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
input Cadena o matriz Introduce texto para incrustar, codificado como una cadena o array de tokens. Para incrustar múltiples entradas en una sola solicitud, pasa un array de cadenas o un array de arrays de tokens. La entrada no debe superar los tokens máximos de entrada para el modelo (8.192 tokens para text-embedding-ada-002), no puede ser una cadena vacía, y cualquier array debe tener 2.048 dimensiones o menos. Yes
user string Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. No
input_type string Tipo de entrada de búsqueda de incrustación a utilizar No
encoding_format string El formato para devolver las incrustaciones. Puede ser cualquiera de float las dos o base64. Por defecto es float. No
dimensions integer El número de dimensiones que deben tener las incrustaciones de salida resultantes. Solo soportado en text-embedding-3 y modelos posteriores. No

Responses

Name Type Description Required Default
object string Yes
model string Yes
data array Yes
usage object Yes

Propiedades de uso

prompt_tokens

Name Type Description Default
prompt_tokens integer

total_tokens

Name Type Description Default
total_tokens integer

Código de estado: 200

Description: OK

Content-Type Type Description
application/json object

Examples

Example

Devuelven los embeddings de un prompt dado.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Chat completions

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

Crea una finalización para el mensaje del chat

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string ID de despliegue del modelo que se desplegó.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Proporciona aquí la clave API de Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
temperature number Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista.

Generalmente recomendamos modificar esto o top_p , pero no ambos.
No 1
top_p number Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%.

Generalmente recomendamos modificar esto o temperature , pero no ambos.
No 1
stream boolean Si se activa, se enviarán deltas parciales de mensajes, como en ChatGPT. Los tokens se enviarán como eventos solo de datos enviados por el servidor a medida que estén disponibles, con el flujo terminado por un data: [DONE] mensaje. No False
stop Cadena o matriz Hasta cuatro secuencias en las que la API dejará de generar más tokens.
No
max_tokens integer El número máximo de tokens que se pueden generar en la finalización del chat.

La longitud total de los tokens de entrada y los tokens generados está limitada por la longitud del contexto del modelo.
No
max_completion_tokens integer Un límite superior para el número de tokens que pueden generarse para una finalización, incluyendo tokens de salida visibles y tokens de razonamiento. No
presence_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas.
No 0
frequency_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente.
No 0
logit_bias object Modifica la probabilidad de que los tokens especificados aparezcan en la completación.

Acepta un objeto JSON que mapea los tokens (especificados por su ID de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente.
No None
user string Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos.
No
messages array Una lista de mensajes que componen la conversación hasta ahora. Yes
data_sources array Las entradas de configuración para las extensiones de chat de Azure OpenAI que las utilizan.
Esta especificación adicional solo es compatible con Azure OpenAI.
No
logprobs boolean Si devolver las probabilidades logarítmicas de los tokens de salida o no. Si es cierto, devuelve las probabilidades logarítmicas de cada token de salida devuelto en el content de message. No False
top_logprobs integer Un entero entre 0 y 20 que especifica el número de tokens más probables de devolver en cada posición de token, cada uno con una probabilidad logarítmica asociada. logprobs debe establecerse en true si se usa este parámetro. No
n integer Cuántas opciones de finalización de chat generar para cada mensaje de entrada. Ten en cuenta que se te cobrará según el número de tokens generados en todas las opciones. Mantente n en la medida 1 de minimizar costes. No 1
parallel_tool_calls ParallelToolCalls Si activar la llamada de funciones paralelas durante el uso de la herramienta. No True
response_format ResponseFormatoTexto o RespuestaFormatoJsonObjeto o RespuestaFormatoJsonSchema Un objeto que especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4o mini, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo más nuevos que gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } activa Structured Outputs, que garantiza que el modelo coincidirá con el esquema JSON que proporcionaste.

Configurar para { "type": "json_object" } activa el modo JSON, que garantiza que el mensaje generado por el modelo sea JSON válido.

Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto.
No
seed integer Esta función está en Beta.
Si se especifica, nuestro sistema hará el mejor esfuerzo por muestrear determinísticamente, de modo que las solicitudes repetidas con los mismos seed parámetros y devuelvan el mismo resultado.
El determinismo no está garantizado, y deberías consultar el system_fingerprint parámetro de respuesta para monitorizar los cambios en el backend.
No
tools array Una lista de herramientas que el modelo puede llamar. Actualmente, solo se soportan funciones como herramienta. Úsalo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. Se soportan un máximo de 128 funciones.
No
tool_choice chatCompletionToolChoiceOption Controla qué herramienta (si la hay) llamada por el modelo. none significa que el modelo no llamará a ninguna herramienta y en su lugar genera un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o más herramientas. required significa que el modelo debe llamar a una o más herramientas. Especificar una herramienta concreta obliga {"type": "function", "function": {"name": "my_function"}} al modelo a llamar a esa herramienta. none es el valor predeterminado cuando no hay herramientas presentes. auto es el valor predeterminado si hay herramientas presentes. No
function_call cadena o chatCompletionFunctionCallOption Obsoleto en favor de tool_choice.

Controla qué función (si la llama) el modelo.
none significa que el modelo no llamará a una función y en su lugar genera un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función.
Especificar una función particular mediante {"name": "my_function"} obliga al modelo a llamar a esa función.

none es el valor predeterminado cuando no hay funciones presentes. auto es el valor predeterminado si hay funciones presentes.
No
functions array Obsoleto en favor de tools.

Una lista de funciones para las que el modelo puede generar entradas JSON.
No

Responses

Código de estado: 200

Description: OK

Content-Type Type Description
application/json createChatCompletionResponse o createChatCompletionStreamResponse

Código de estado: por defecto

Descripción: Servicio no disponible

Content-Type Type Description
application/json errorResponse

Examples

Example

Crea una finalización para el prompt, los parámetros y el modelo elegido proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea una completación basada en los datos de Azure Search y la identidad gestionada asignada al sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea una finalización basada en los datos del vector de búsqueda de Azure, el mensaje del asistente anterior y la identidad gestionada asignada por el usuario.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea una finalización para la Azure Cosmos DB proporcionada.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcripciones - Create

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Transcribe el audio al idioma de entrada.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string ID de despliegue del modelo de voz a texto.

Para información sobre modelos compatibles, véase [/azure/ai-foundry/openai/concepts/models#audio-models].
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Proporciona aquí la clave API de Azure OpenAI

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string El objeto de archivo de audio para transcribir. Yes
prompt string Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. El prompt debería coincidir con el lenguaje del audio. No
response_format audioResponseFormat Define el formato de la salida. No
temperature number La temperatura de muestreo, entre 0 y 1. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Si se establece en 0, el modelo usará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta alcanzar ciertos umbrales. No 0
language string El idioma del audio de entrada. Suministrar el lenguaje de entrada en formato ISO-639-1 mejorará la precisión y la latencia. No

Responses

Código de estado: 200

Description: OK

Content-Type Type Description
application/json audioRespuesta o audioVerboseResponse
text/plain string Texto transcrito en el formato de salida (cuando response_format era de texto, vtt o srt).

Examples

Example

Obtiene texto transcrito y metadatos asociados de los datos de audio hablado proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Respuestas: Código de estado: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtiene texto transcrito y metadatos asociados de los datos de audio hablado proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respuestas: Código de estado: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traducciones - Create

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

Transcribe y traduce el audio de entrada a texto en inglés.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string ID de despliegue del modelo whisper que se desplegó.

Para información sobre modelos compatibles, véase [/azure/ai-foundry/openai/concepts/models#audio-models].
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Proporciona aquí la clave API de Azure OpenAI

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string El archivo de audio para traducir. Yes
prompt string Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. El prompt debería estar en inglés. No
response_format audioResponseFormat Define el formato de la salida. No
temperature number La temperatura de muestreo, entre 0 y 1. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Si se establece en 0, el modelo usará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta alcanzar ciertos umbrales. No 0

Responses

Código de estado: 200

Description: OK

Content-Type Type Description
application/json audioRespuesta o audioVerboseResponse
text/plain string Texto transcrito en el formato de salida (cuando response_format era de texto, vtt o srt).

Examples

Example

Obtiene texto transcrito en inglés y metadatos asociados a partir de los datos de audio hablado proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respuestas: Código de estado: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtiene texto transcrito en inglés y metadatos asociados a partir de los datos de audio hablado proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respuestas: Código de estado: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Image generation

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

Genera un lote de imágenes a partir de un pie de foto en un despliegue dado de un modelo dall-e

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string ID de despliegue del modelo dall-e que se desplegó.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Proporciona aquí la clave API de Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
prompt string Una descripción en texto de la(s) imagen(es) deseada(s). La longitud máxima es de 4.000 caracteres. Yes
n integer El número de imágenes que hay que generar. No 1
size imageSize El tamaño de las imágenes generadas. No 1024x1024
response_format imagesResponseFormat El formato en el que se devuelven las imágenes generadas. No url
user string Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. No
quality imageQuality La calidad de la imagen que se generará. No standard
style imageStyle El estilo de las imágenes generadas. No vivid

Responses

Código de estado: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Código de estado: por defecto

Descripción: Ha ocurrido un error.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Crea imágenes con un prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Respuestas: Código de estado: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Components

errorResponse

Name Type Description Required Default
error error No

errorBase

Name Type Description Required Default
code string No
message string No

error

Name Type Description Required Default
param string No
type string No
inner_error innerError Error interno con detalles adicionales. No

innerError

Error interno con detalles adicionales.

Name Type Description Required Default
code innerErrorCode Códigos de error para el objeto de error interno. No
content_filter_results contentFilterPromptResults Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de clientes bloqueados, si ha sido filtrada y su identificación. No

innerErrorCode

Códigos de error para el objeto de error interno.

Descripción: Códigos de error para el objeto de error interno.

Type: string

Default:

Nombre de Enum: InnerErrorCode

Enum Values:

Value Description
ResponsibleAIPolicyViolation El prompt violó una de las reglas más de filtro de contenido.

dalleErrorResponse

Name Type Description Required Default
error dalleError No

dalleError

Name Type Description Required Default
param string No
type string No
inner_error dalleInnerError Error interno con detalles adicionales. No

dalleInnerError

Error interno con detalles adicionales.

Name Type Description Required Default
code innerErrorCode Códigos de error para el objeto de error interno. No
content_filter_results dalleFilterResults Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de clientes bloqueados, si ha sido filtrada y su identificación. No
revised_prompt string El prompt que se usó para generar la imagen, si hubo alguna revisión del prompt. No

contentFilterResultBase

Name Type Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Type Description Required Default
filtered boolean Yes
severity string No

contentFilterDetectedResult

Name Type Description Required Default
filtered boolean Yes
detected boolean No

contentFilterDetectedWithCitationResult

Name Type Description Required Default
citation object No

Propiedades de citación

URL

Name Type Description Default
URL string

license

Name Type Description Default
license string

contentFilterResultsBase

Información sobre los resultados del filtrado de contenido.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No

contentFilterPromptResults

Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de clientes bloqueados, si ha sido filtrada y su identificación.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No
jailbreak contentFilterDetectedResult No

contentFilterChoiceResults

Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre mensajes de texto de terceros y palabrotas, si se han detectado y si han sido filtrados o no. Y información sobre la lista de clientes bloqueados, si ha sido filtrada y su identificación.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No
protected_material_text contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No

promptFilterResult

Filtrado de contenido resulta para un único prompt en la solicitud.

Name Type Description Required Default
prompt_index integer No
content_filter_results contentFilterPromptResults Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de clientes bloqueados, si ha sido filtrada y su identificación. No

promptFilterResults

Filtrado de contenido resulta para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de diferentes prompts pueden llegar en distintos momentos o en distintos órdenes.

No hay propiedades definidas para este componente.

dalleContentFilterResults

Información sobre los resultados del filtrado de contenido.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No

dalleFilterResults

Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de clientes bloqueados, si ha sido filtrada y su identificación.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No

chatCompletionsRequestCommon

Name Type Description Required Default
temperature number Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista.
Generalmente recomendamos modificar esto o top_p , pero no ambos.
No 1
top_p number Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%.
Generalmente recomendamos modificar esto o temperature , pero no ambos.
No 1
stream boolean Si se activa, se enviarán deltas parciales de mensajes, como en ChatGPT. Los tokens se enviarán como eventos solo de datos enviados por el servidor a medida que estén disponibles, con el flujo terminado por un data: [DONE] mensaje. No False
stop Cadena o matriz Hasta cuatro secuencias en las que la API dejará de generar más tokens. No
max_tokens integer El número máximo de tokens permitido para la respuesta generada. Por defecto, el número de tokens que el modelo puede devolver será (4096 - tokens de prompt). Este valor ahora está obsoleto en favor de max_completion_tokens, y no es compatible con los modelos de la serie O1. No 4096
max_completion_tokens integer Un límite superior para el número de tokens que pueden generarse para una finalización, incluyendo tokens de salida visibles y tokens de razonamiento. No
presence_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas. No 0
frequency_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente. No 0
logit_bias object Modifica la probabilidad de que los tokens especificados aparezcan en la completación. Acepta un objeto json que mapea tokens (especificados por su ID de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente. No
user string Un identificador único que representa a tu usuario final, que puede ayudar a Azure OpenAI a monitorizar y detectar abusos. No

createCompletionRequest

Name Type Description Required Default
prompt Cadena o matriz El(los) prompt(s) para generar completaciones para , codificado como una cadena, array de cadenas, array de tokens o array de tokens.

Ten en cuenta que <|endoftext|> es el separador de documentos que el modelo ve durante el entrenamiento, así que si no se especifica un prompt, el modelo se generará como si fuera desde el principio de un nuevo documento.
Yes
best_of integer Genera best_of completaciones en el lado del servidor y devuelve el "mejor" (el que tiene la mayor probabilidad logarítmica por token). Los resultados no se pueden transmitir en streaming.

Cuando se usa con n, best_of controla el número de completaciones candidatas y n especifica cuántas devolver â€" best_of debe ser mayor que n.

Nota: Como este parámetro genera muchas completaciones, puede consumir rápidamente tu cuota de tokens. Úsalo con cuidado y asegúrate de tener configuraciones razonables para max_tokens y stop.
No 1
echo boolean Haz eco del prompt además de la finalización
No False
frequency_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente.
No 0
logit_bias object Modifica la probabilidad de que los tokens especificados aparezcan en la completación.

Acepta un objeto JSON que mapea los tokens (especificados por su ID de token en el tokenizador GPT) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente.

Por ejemplo, puedes pasar {"50256": -100} para evitar que se genere el <token |endoftext> |.
No None
logprobs integer Incluye las probabilidades logarítmicas de los logprobs tokens de salida más probables, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devolverá una lista de los cinco tokens más probables. La API siempre devolverá el logprob del token muestreado, por lo que puede haber hasta logprobs+1 hasta elementos en la respuesta.

El valor máximo para logprobs es 5.
No None
max_tokens integer El número máximo de tokens que se pueden generar en la finalización.

El recuento de tokens de tu prompt plus max_tokens no puede superar la longitud contextual del modelo.
No 16
n integer Cuántas finalizaciones generar para cada prompt.

Nota: Como este parámetro genera muchas completaciones, puede consumir rápidamente tu cuota de tokens. Úsalo con cuidado y asegúrate de tener configuraciones razonables para max_tokens y stop.
No 1
presence_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas.
No 0
seed integer Si se especifica, nuestro sistema hará el mejor esfuerzo por muestrear determinísticamente, de modo que las solicitudes repetidas con los mismos seed parámetros y devuelvan el mismo resultado.

El determinismo no está garantizado, y deberías consultar el system_fingerprint parámetro de respuesta para monitorizar los cambios en el backend.
No
stop Cadena o matriz Hasta cuatro secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de paradas.
No
stream boolean Si se debe refluir en un progreso parcial. Si se establece, los tokens se enviarán como eventos solo de datos enviados por el servidor a medida que estén disponibles, y el flujo terminará con un data: [DONE] mensaje. No False
suffix string El sufijo que aparece después de completar el texto insertado.

Este parámetro solo es compatible con gpt-3.5-turbo-instruct.
No None
temperature number Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista.

Generalmente recomendamos modificar esto o top_p , pero no ambos.
No 1
top_p number Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%.

Generalmente recomendamos modificar esto o temperature , pero no ambos.
No 1
user string Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos.
No

createCompletionResponse

Representa una respuesta de completación de la API. Nota: tanto los objetos de respuesta transmitidos como los no transmitidos comparten la misma forma (a diferencia del endpoint del chat).

Name Type Description Required Default
id string Un identificador único para la finalización. Yes
choices array La lista de opciones de finalización que el modelo generó para el prompt de entrada. Yes
created integer La marca de tiempo de Unix (en segundos) de cuándo se creó la finalización. Yes
model string El modelo utilizado para la finalización. Yes
prompt_filter_results promptFilterResults Filtrado de contenido resulta para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de diferentes prompts pueden llegar en distintos momentos o en distintos órdenes. No
system_fingerprint string Esta huella dactilar representa la configuración del backend con la que se ejecuta el modelo.

Puede usarse junto con el seed parámetro de solicitud para entender cuándo se han realizado cambios en el backend que puedan afectar al determinismo.
No
object enum El tipo de objeto, que siempre es "text_completion"
Valores posibles: text_completion
Yes
usage completionUsage Estadísticas de uso para la solicitud de finalización. No

createChatCompletionRequest

Name Type Description Required Default
temperature number Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista.

Generalmente recomendamos modificar esto o top_p , pero no ambos.
No 1
top_p number Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%.

Generalmente recomendamos modificar esto o temperature , pero no ambos.
No 1
stream boolean Si se activa, se enviarán deltas parciales de mensajes, como en ChatGPT. Los tokens se enviarán como eventos solo de datos enviados por el servidor a medida que estén disponibles, con el flujo terminado por un data: [DONE] mensaje. No False
stop Cadena o matriz Hasta cuatro secuencias en las que la API dejará de generar más tokens.
No
max_tokens integer El número máximo de tokens que se pueden generar en la finalización del chat.

La longitud total de los tokens de entrada y los tokens generados está limitada por la longitud del contexto del modelo.
No
max_completion_tokens integer Un límite superior para el número de tokens que pueden generarse para una finalización, incluyendo tokens de salida visibles y tokens de razonamiento. No
presence_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas.
No 0
frequency_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente.
No 0
logit_bias object Modifica la probabilidad de que los tokens especificados aparezcan en la completación.

Acepta un objeto JSON que mapea los tokens (especificados por su ID de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente.
No None
user string Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos.
No
messages array Una lista de mensajes que componen la conversación hasta ahora. Yes
data_sources array Las entradas de configuración para las extensiones de chat de Azure OpenAI que las utilizan.
Esta especificación adicional solo es compatible con Azure OpenAI.
No
logprobs boolean Si devolver las probabilidades logarítmicas de los tokens de salida o no. Si es cierto, devuelve las probabilidades logarítmicas de cada token de salida devuelto en el content de message. No False
top_logprobs integer Un entero entre 0 y 20 que especifica el número de tokens más probables de devolver en cada posición de token, cada uno con una probabilidad logarítmica asociada. logprobs debe establecerse en true si se usa este parámetro. No
n integer Cuántas opciones de finalización de chat generar para cada mensaje de entrada. Ten en cuenta que se te cobrará según el número de tokens generados en todas las opciones. Mantente n en la medida 1 de minimizar costes. No 1
parallel_tool_calls ParallelToolCalls Si activar la llamada de funciones paralelas durante el uso de la herramienta. No True
response_format ResponseFormatoTexto o RespuestaFormatoJsonObjeto o RespuestaFormatoJsonSchema Un objeto que especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4o mini, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo más nuevos que gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } activa Structured Outputs, que garantiza que el modelo coincidirá con el esquema JSON que proporcionaste.

Configurar para { "type": "json_object" } activa el modo JSON, que garantiza que el mensaje generado por el modelo sea JSON válido.

Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto.
No
seed integer Esta función está en Beta.
Si se especifica, nuestro sistema hará el mejor esfuerzo por muestrear determinísticamente, de modo que las solicitudes repetidas con los mismos seed parámetros y devuelvan el mismo resultado.
El determinismo no está garantizado, y deberías consultar el system_fingerprint parámetro de respuesta para monitorizar los cambios en el backend.
No
tools array Una lista de herramientas que el modelo puede llamar. Actualmente, solo se soportan funciones como herramienta. Úsalo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. Se soportan un máximo de 128 funciones.
No
tool_choice chatCompletionToolChoiceOption Controla qué herramienta (si la hay) llamada por el modelo. none significa que el modelo no llamará a ninguna herramienta y en su lugar genera un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o más herramientas. required significa que el modelo debe llamar a una o más herramientas. Especificar una herramienta concreta obliga {"type": "function", "function": {"name": "my_function"}} al modelo a llamar a esa herramienta. none es el valor predeterminado cuando no hay herramientas presentes. auto es el valor predeterminado si hay herramientas presentes. No
function_call cadena o chatCompletionFunctionCallOption Obsoleto en favor de tool_choice.

Controla qué función (si la llama) el modelo.
none significa que el modelo no llamará a una función y en su lugar genera un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función.
Especificar una función particular mediante {"name": "my_function"} obliga al modelo a llamar a esa función.

none es el valor predeterminado cuando no hay funciones presentes. auto es el valor predeterminado si hay funciones presentes.
No
functions array Obsoleto en favor de tools.

Una lista de funciones para las que el modelo puede generar entradas JSON.
No

chatCompletionFunctions

Name Type Description Required Default
description string Una descripción de lo que hace la función, utilizada por el modelo para elegir cuándo y cómo llamar a la función. No
name string El nombre de la función a llamar. Debe ser de la a-z, de la A a la Z, del 0 al 9, o contener guiones bajos y guiones, con una longitud máxima de 64. Yes
parameters FunctionParameters Los parámetros que aceptan las funciones se describen como un objeto de esquema JSON. Consulta la guía para ejemplos y la referencia del esquema JSON para documentación sobre el formato.

Omitir parameters define una función con una lista de parámetros vacía.
No

chatCompletionFunctionCallOption

Especificar una función particular mediante {"name": "my_function"} obliga al modelo a llamar a esa función.

Name Type Description Required Default
name string El nombre de la función a llamar. Yes

chatCompletionRequestMessage

Este componente puede ser uno de los siguientes:

chatCompletionRequestSystemMessage

Name Type Description Required Default
content Cadena o matriz El contenido del mensaje del sistema. Yes
role enum El papel del autor de los mensajes, en este caso system.
Valores posibles: sistema
Yes
name string Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre participantes del mismo rol. No

chatCompletionRequestUserMessage

Name Type Description Required Default
content Cadena o matriz El contenido del mensaje de usuario.
Yes
role enum El papel del autor de los mensajes, en este caso user.
Valores posibles: usuario
Yes
name string Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre participantes del mismo rol. No

chatCompletionRequestAssistantMessage

Name Type Description Required Default
content Cadena o matriz El contenido del mensaje de asistente. Obligatorio a menos que tool_calls se especifique o function_call se especifique.
No
refusal string El mensaje de rechazo del asistente. No
role enum El papel del autor de los mensajes, en este caso assistant.
Valores posibles: asistente
Yes
name string Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre participantes del mismo rol. No
tool_calls chatCompletionMessageToolCalls Las llamadas a la herramienta generadas por el modelo, como las llamadas a funciones. No
function_call object Obsoleto y reemplazado por tool_calls. El nombre y los argumentos de una función que debe llamarse, tal como se genera el modelo. No

Propiedades para function_call

arguments

Name Type Description Default
arguments string Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por tu esquema de función. Valida los argumentos de tu código antes de llamar a tu función.

name

Name Type Description Default
name string El nombre de la función a llamar.

chatCompletionRequestToolMessage

Name Type Description Required Default
role enum El papel del autor de los mensajes, en este caso tool.
Valores posibles: herramienta
Yes
content Cadena o matriz El contenido del mensaje de herramienta. Yes
tool_call_id string Llamada de herramienta a la que este mensaje está respondiendo. Yes

chatCompletionRequestFunctionMessage

Name Type Description Required Default
role enum El papel del autor de los mensajes, en este caso function.
Valores posibles: función
Yes
content string El contenido del mensaje de función. Yes
name string El nombre de la función a llamar. Yes

chatCompletionRequestSystemMessageContentPart

Este componente puede ser uno de los siguientes:

chatCompletionRequestUserMessageContentPart

Este componente puede ser uno de los siguientes:

chatCompletionRequestAssistantMessageContentPart

Este componente puede ser uno de los siguientes:

chatCompletionRequestToolMessageContentPart

Este componente puede ser uno de los siguientes:

chatCompletionRequestMessageContentPartText

Name Type Description Required Default
type enum La parte del tipo de contenido.
Valores posibles: texto
Yes
text string El contenido del texto. Yes

chatCompletionRequestMessageContentPartImage

Name Type Description Required Default
type enum La parte del tipo de contenido.
Valores posibles: image_url
Yes
image_url object Yes

Propiedades para image_url

url

Name Type Description Default
url string O bien una URL de la imagen o los datos codificados en base64.

detail

Name Type Description Default
detail string Especifica el nivel de detalle de la imagen. Aprende más en la guía de Visión. auto

chatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
type enum La parte del tipo de contenido.
Valores posibles: rechazo
Yes
refusal string El mensaje de rechazo generado por el modelo. Yes

azureChatExtensionConfiguration

Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI.

Name Type Description Required Default
type azureChatExtensionType Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto será utilizado por un chat
completions que deberían usar extensiones de chat de OpenAI de Azure para aumentar el comportamiento de respuesta.
El uso de esta configuración es compatible únicamente con Azure OpenAI.
Yes

azureChatExtensionType

Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI.

Description: Una representación de datos de configuración para una única extensión de chat de OpenAI Azure. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI.

Type: string

Default:

Enum Name: AzureChatExtensionType

Enum Values:

Value Description
azure_search Representa el uso de Azure Search como una extensión de chat de Azure OpenAI.
azure_cosmos_db Representa el uso de Azure Cosmos DB como extensión de chat de Azure OpenAI.

azureSearchChatExtensionConfiguration

Una representación específica de opciones configurables para Azure Search cuando se usa como una extensión de chat de Azure OpenAI.

Name Type Description Required Default
type azureChatExtensionType Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto será utilizado por un chat
completions que deberían usar extensiones de chat de OpenAI de Azure para aumentar el comportamiento de respuesta.
El uso de esta configuración es compatible únicamente con Azure OpenAI.
Yes
parameters azureSearchChatExtensionParameters Parámetros para Azure Search cuando se usan como extensión de chat de Azure OpenAI. No

azureSearchChatExtensionParameters

Parámetros para Azure Search cuando se usan como extensión de chat de Azure OpenAI.

Name Type Description Required Default
authentication onTuDatosApiClaveOpciones de Autenticación o onTuTDataSystemAsignadoGestionadoOpciones de AutenticaciónIdentidad o onTiDatosUsuarioAsignadoGestionadoIdentidadOpciones de Autenticación Yes
top_n_documents integer El número superior configurado de documentos para destacar en la consulta configurada. No
in_scope boolean Si las consultas deben restringirse al uso de datos indexados. No
strictness integer La estricta configuración del filtrado de relevancia en la búsqueda. Cuanto más estricta es la rigurosidad, mayor es la precisión pero menor es la memoria de la respuesta. No
role_information string Dale al modelo instrucciones sobre cómo debe comportarse y cualquier contexto que deba consultar al generar una respuesta. Puedes describir la personalidad del asistente y decirle cómo formatear las respuestas. Hay un límite de 100 tokens para ella, y cuenta para el límite total de tokens. No
endpoint string La ruta final absoluta para que el recurso de Azure Search la utilice. Yes
index_name string El nombre del índice a usar está disponible en el recurso de búsqueda de Azure referenciado. Yes
fields_mapping azureSearchIndexFieldMappingOptions Opciones para controlar cómo se procesan los campos cuando se utiliza un recurso de Azure Search configurado. No
query_type azureSearchQueryType El tipo de consulta de recuperación de Azure Search que debe ejecutarse al usarla como extensión de chat de OpenAI en Azure. No
semantic_configuration string La configuración semántica adicional para la consulta. No
filter string Search filter. No
embedding_dependency onTusDataDataEndpointVectorizaciónFuente o onTuDataDesdespliegueNombreVectorizaciónFuente No

azureSearchIndexFieldMappingOptions

Opciones para controlar cómo se procesan los campos cuando se utiliza un recurso de Azure Search configurado.

Name Type Description Required Default
title_field string El nombre del campo índice para usar como título. No
url_field string El nombre del campo índice para usar como URL. No
filepath_field string El nombre del campo índice para usar como ruta de archivo. No
content_fields array Los nombres de los campos índice que deben tratarse como contenido. No
content_fields_separator string El patrón de separación que deberían usar los campos de contenido. No
vector_fields array Los nombres de los campos que representan datos vectoriales. No

azureSearchQueryType

El tipo de consulta de recuperación de Azure Search que debe ejecutarse al usarla como extensión de chat de OpenAI en Azure.

Description: El tipo de consulta de recuperación de búsqueda Azure que debe ejecutarse al usarla como una extensión de chat Azure OpenAI.

Type: string

Default:

Enum Name: AzureSearchQueryType

Enum Values:

Value Description
simple Representa el analizador de consultas por defecto y simple.
semantic Representa el analizador semántico de consultas para modelado semántico avanzado.
vector Representa la búsqueda vectorial sobre datos calculados.
vector_simple_hybrid Representa una combinación de la estrategia de consulta simple con datos vectoriales.
vector_semantic_hybrid Representa una combinación de búsqueda semántica y consulta de datos vectoriales.

azureCosmosDBChatExtensionConfiguration

Una representación específica de opciones configurables para Azure Cosmos DB al usarlo como extensión de chat de Azure OpenAI.

Name Type Description Required Default
type azureChatExtensionType Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto será utilizado por un chat
completions que deberían usar extensiones de chat de OpenAI de Azure para aumentar el comportamiento de respuesta.
El uso de esta configuración es compatible únicamente con Azure OpenAI.
Yes
parameters azureCosmosDBChatExtensionParameters Parámetros a usar al configurar extensiones de chat de Azure OpenAI On Your Data al usar Azure Cosmos DB para
MongoDB vCore.
No

azureCosmosDBChatExtensionParameters

Parámetros a usar al configurar las extensiones de chat de Azure OpenAI On Your Data al usar Azure Cosmos DB para MongoDB vCore.

Name Type Description Required Default
authentication onYourDataConnectionStringAuthenticationOptions Las opciones de autenticación para Azure OpenAI On Your Data al usar una cadena de conexión. Yes
top_n_documents integer El número superior configurado de documentos para destacar en la consulta configurada. No
in_scope boolean Si las consultas deben restringirse al uso de datos indexados. No
strictness integer La estricta configuración del filtrado de relevancia en la búsqueda. Cuanto más estricta es la rigurosidad, mayor es la precisión pero menor es la memoria de la respuesta. No
role_information string Dale al modelo instrucciones sobre cómo debe comportarse y cualquier contexto que deba consultar al generar una respuesta. Puedes describir la personalidad del asistente y decirle cómo formatear las respuestas. Hay un límite de 100 tokens para ella, y cuenta para el límite total de tokens. No
database_name string El nombre de la base de datos MongoDB vCore para usar con Azure Cosmos DB. Yes
container_name string El nombre del contenedor de recursos de Azure Cosmos DB. Yes
index_name string El nombre del índice MongoDB vCore para usar con Azure Cosmos DB. Yes
fields_mapping azureCosmosDBFieldMappingOptions Configuraciones opcionales para controlar cómo se procesan los campos cuando se utiliza un recurso configurado de Azure Cosmos DB. Yes
embedding_dependency onTusDataDataEndpointVectorizaciónFuente o onTuDataDesdespliegueNombreVectorizaciónFuente Yes

azureCosmosDBFieldMappingOptions

Configuraciones opcionales para controlar cómo se procesan los campos cuando se utiliza un recurso configurado de Azure Cosmos DB.

Name Type Description Required Default
title_field string El nombre del campo índice para usar como título. No
url_field string El nombre del campo índice para usar como URL. No
filepath_field string El nombre del campo índice para usar como ruta de archivo. No
content_fields array Los nombres de los campos índice que deben tratarse como contenido. Yes
content_fields_separator string El patrón de separación que deberían usar los campos de contenido. No
vector_fields array Los nombres de los campos que representan datos vectoriales. Yes

onYourDataAuthenticationOptions

Las opciones de autenticación para Azure OpenAI en tus datos.

Name Type Description Required Default
type onYourDataAuthenticationType Los tipos de autenticación soportados con Azure OpenAI On Your Data. Yes

onYourDataAuthenticationType

Los tipos de autenticación soportados con Azure OpenAI On Your Data.

Description: Los tipos de autenticación compatibles con Azure OpenAI On Your Data.

Type: string

Default:

Nombre de Enum: OnYourDataAuthenticationType

Enum Values:

Value Description
api_key Autenticación mediante clave API.
connection_string Autenticación mediante cadena de conexión.
system_assigned_managed_identity Autenticación mediante identidad gestionada asignada por el sistema.
user_assigned_managed_identity Autenticación mediante identidad gestionada asignada por el usuario.

onYourDataApiKeyAuthenticationOptions

Las opciones de autenticación para Azure OpenAI On Your Data al usar una clave API.

Name Type Description Required Default
type onYourDataAuthenticationType Los tipos de autenticación soportados con Azure OpenAI On Your Data. Yes
key string La clave API para usar para la autenticación. No

onYourDataConnectionStringAuthenticationOptions

Las opciones de autenticación para Azure OpenAI On Your Data al usar una cadena de conexión.

Name Type Description Required Default
type onYourDataAuthenticationType Los tipos de autenticación soportados con Azure OpenAI On Your Data. Yes
connection_string string La cadena de conexión para usar para autenticación. No

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Las opciones de autenticación para Azure OpenAI On Your Data cuando se utiliza una identidad gestionada asignada por el sistema.

Name Type Description Required Default
type onYourDataAuthenticationType Los tipos de autenticación soportados con Azure OpenAI On Your Data. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Las opciones de autenticación para Azure OpenAI On Your Data cuando se utiliza una identidad gestionada asignada por el usuario.

Name Type Description Required Default
type onYourDataAuthenticationType Los tipos de autenticación soportados con Azure OpenAI On Your Data. Yes
managed_identity_resource_id string El ID de recurso de la identidad gestionada asignada por el usuario para usar en la autenticación. No

onYourDataVectorizationSource

Una representación abstracta de una fuente de vectorización para Azure OpenAI On Your Data con búsqueda vectorial.

Name Type Description Required Default
type onYourDataVectorizationSourceType Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con
vector search.
Yes

onYourDataVectorizationSourceType

Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con búsqueda vectorial.

Description: Representa las fuentes disponibles Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con
vector search.

Type: string

Default:

Nombre de enum: OnYourDataVectorizationSourceType

Enum Values:

Value Description
endpoint Representa la vectorización realizada por llamadas de servicio público a un modelo de incrustación de Azure OpenAI.
deployment_name Representa el nombre de un modelo de despliegue Ada para usar. Este despliegue de modelo debe estar en el mismo recurso de Azure OpenAI, pero
On Your Data usará este modelo para desplegarse mediante una llamada interna en lugar de pública, lo que permite vector
Busca incluso en redes privadas.

onYourDataDeploymentNameVectorizationSource

Los detalles de una fuente de vectorización, utilizada por Azure OpenAI On Your Data al aplicar búsqueda vectorial, se basa en un nombre interno de despliegue de modelo de embeddings en el mismo recurso de Azure OpenAI.

Name Type Description Required Default
type onYourDataVectorizationSourceType Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con
vector search.
Yes
deployment_name string Especifica el nombre del despliegue del modelo que se va a usar para la vectorización. Este despliegue de modelo debe realizarse en el mismo recurso de OpenAI de Azure, pero On Your Data usará este despliegue de modelo mediante una llamada interna en lugar de pública, lo que permite la búsqueda vectorial incluso en redes privadas. No

onYourDataEndpointVectorizationSource

Los detalles de una fuente de vectorización, utilizada por Azure OpenAI On Your Data al aplicar la búsqueda vectorial, se basa en una llamada pública de endpoint de Azure OpenAI para embeddings.

Name Type Description Required Default
type onYourDataVectorizationSourceType Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con
vector search.
Yes
authentication onYourDataApiKeyAuthenticationOptions Las opciones de autenticación para Azure OpenAI On Your Data al usar una clave API. No
endpoint string Especifica el punto final a usar para la vectorización. Este endpoint debe estar en el mismo recurso de Azure OpenAI, pero On Your Data usará este endpoint mediante una llamada interna en lugar de pública, lo que permite la búsqueda vectorial incluso en redes privadas. No

azureChatExtensionsMessageContext

Una representación de la información contextual adicional disponible cuando las extensiones de chat de Azure OpenAI están involucradas en la generación de una respuesta correspondiente a la finalización del chat. Esta información contextual solo se rellena cuando se utiliza una solicitud OpenAI de Azure configurada para usar una extensión correspondiente.

Name Type Description Required Default
citations array El resultado de recuperación de la fuente de datos, utilizado para generar el mensaje asistente en la respuesta. No
intent string La intención detectada del historial de chat, que se usaba para pasar al siguiente turno y mantener el contexto. No

citation

Información de cita para un mensaje de respuesta a la finalización de un chat.

Name Type Description Required Default
content string El contenido de la cita. Yes
title string El título de la cita. No
url string La URL de la cita. No
filepath string La ruta del archivo de la cita. No
chunk_id string La identificación del fragmento de la multa. No

chatCompletionMessageToolCall

Name Type Description Required Default
id string El ID de la llamada de herramienta. Yes
type toolCallType El tipo de llamada a la herramienta, en este caso function. Yes
function object La función que llamó el modelo. Yes

Propiedades para la función

name

Name Type Description Default
name string El nombre de la función a llamar.

arguments

Name Type Description Default
arguments string Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por tu esquema de función. Valida los argumentos de tu código antes de llamar a tu función.

toolCallType

El tipo de llamada a la herramienta, en este caso function.

Descripción: El tipo de llamada a la herramienta, en este caso function.

Type: string

Default:

Nombre de Enum: ToolCallType

Enum Values:

Value Description
function El tipo de llamada a la herramienta es función.

chatCompletionRequestMessageTool

Name Type Description Required Default
tool_call_id string Llamada de herramienta a la que este mensaje está respondiendo. No
content string El contenido del mensaje. No

chatCompletionRequestMessageFunction

Name Type Description Required Default
role enum El papel del autor de los mensajes, en este caso function.
Valores posibles: función
No
name string El contenido del mensaje. No
content string El contenido del mensaje. No

createChatCompletionResponse

Representa una respuesta de finalización del chat devolvida por el modelo, basada en la entrada proporcionada.

Name Type Description Required Default
id string Un identificador único para la finalización del chat. Yes
prompt_filter_results promptFilterResults Filtrado de contenido resulta para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de diferentes prompts pueden llegar en distintos momentos o en distintos órdenes. No
choices array Una lista de opciones para completar el chat. Puede ser más de uno si n es mayor que 1. Yes
created integer La marca de tiempo de Unix (en segundos) de cuándo se creó la finalización del chat. Yes
model string El modelo utilizado para completar el chat. Yes
system_fingerprint string Esta huella dactilar representa la configuración del backend con la que se ejecuta el modelo.

Puede usarse junto con el seed parámetro de solicitud para entender cuándo se han realizado cambios en el backend que puedan afectar al determinismo.
No
object enum El tipo de objeto, que es siempre chat.completion.
Valores posibles: chat.completion
Yes
usage completionUsage Estadísticas de uso para la solicitud de finalización. No

createChatCompletionStreamResponse

Representa un fragmento transmitido de una respuesta de finalización de chat devuelto por el modelo, basado en la entrada proporcionada.

Name Type Description Required Default
id string Un identificador único para la finalización del chat. Cada bloque tiene el mismo ID. Yes
choices array Una lista de opciones para completar el chat. Puede contener más de un elemento si n es mayor que 1.
Yes
created integer La marca de tiempo de Unix (en segundos) de cuándo se creó la finalización del chat. Cada bloque tiene la misma marca de tiempo. Yes
model string El modelo para generar la completación. Yes
system_fingerprint string Esta huella dactilar representa la configuración del backend con la que se ejecuta el modelo.
Puede usarse junto con el seed parámetro de solicitud para entender cuándo se han realizado cambios en el backend que puedan afectar al determinismo.
No
object enum El tipo de objeto, que es siempre chat.completion.chunk.
Valores posibles: chat.completion.chunk
Yes

chatCompletionStreamResponseDelta

Un delta de completación del chat generado por las respuestas del modelo en streaming.

Name Type Description Required Default
content string El contenido del mensaje chunk. No
function_call object Obsoleto y reemplazado por tool_calls. El nombre y los argumentos de una función que debe llamarse, tal como se genera el modelo. No
tool_calls array No
role enum El papel del autor de este mensaje.
Valores posibles: sistema, usuario, asistente, herramienta
No
refusal string El mensaje de rechazo generado por el modelo. No

Propiedades para function_call

arguments

Name Type Description Default
arguments string Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por tu esquema de función. Valida los argumentos de tu código antes de llamar a tu función.

name

Name Type Description Default
name string El nombre de la función a llamar.

chatCompletionMessageToolCallChunk

Name Type Description Required Default
index integer Yes
id string El ID de la llamada de herramienta. No
type enum El tipo de herramienta. Actualmente, solo function está soportado.
Valores posibles: función
No
function object No

Propiedades para la función

name

Name Type Description Default
name string El nombre de la función a llamar.

arguments

Name Type Description Default
arguments string Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por tu esquema de función. Valida los argumentos de tu código antes de llamar a tu función.

chatCompletionStreamOptions

Opciones para la respuesta en streaming. Solo se configura esto cuando se configura stream: true.

Name Type Description Required Default
include_usage boolean Si se activa, se transmitirá un fragmento adicional antes del data: [DONE] mensaje. El usage campo en este fragmento muestra las estadísticas de uso de tokens para toda la petición, y el choices campo siempre será un array vacío. Todos los demás chunks también incluirán un usage campo, pero con valor nulo.
No

chatCompletionChoiceLogProbs

Registra la información de probabilidad para la elección.

Name Type Description Required Default
content array Una lista de tokens de contenido de mensajes con información de probabilidad logarítmica. Yes
refusal array Una lista de tokens de rechazo de mensajes con información de probabilidad logarítmica. No

chatCompletionTokenLogprob

Name Type Description Required Default
token string The token. Yes
logprob number La probabilidad logarítmica de este token. Yes
bytes array Una lista de enteros que representan la representación UTF-8 bytes del token. Útil en casos donde los caracteres están representados por múltiples tokens y sus representaciones en bytes deben combinarse para generar la representación correcta del texto. Puede serlo null si no hay representación en bytes para el token. Yes
top_logprobs array Lista de las fichas más probables y su probabilidad logarítmica, en esta posición de ficha. En casos raros, puede haber menos que el número de solicitados top_logprobs devueltos. Yes

chatCompletionResponseMessage

Un mensaje de finalización del chat generado por el modelo.

Name Type Description Required Default
role chatCompletionResponseMessageRole El papel del autor del mensaje de respuesta. Yes
refusal string El mensaje de rechazo generado por el modelo. Yes
content string El contenido del mensaje. Yes
tool_calls array Las llamadas a la herramienta generadas por el modelo, como las llamadas a funciones. No
function_call chatCompletionFunctionCall Obsoleto y reemplazado por tool_calls. El nombre y los argumentos de una función que debe llamarse, tal como se genera el modelo. No
context azureChatExtensionsMessageContext Una representación de la información contextual adicional disponible cuando se involucran extensiones de chat de Azure OpenAI
en la generación de una respuesta correspondiente de finalización del chat. Esta información de contexto solo se rellena cuando
usando una solicitud OpenAI de Azure configurada para usar una extensión correspondiente.
No

chatCompletionResponseMessageRole

El papel del autor del mensaje de respuesta.

Descripción: El papel del autor del mensaje de respuesta.

Type: string

Default:

Enum Values:

  • assistant

chatCompletionToolChoiceOption

Controla qué herramienta (si la hay) llamada por el modelo. none significa que el modelo no llamará a ninguna herramienta y en su lugar genera un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o más herramientas. required significa que el modelo debe llamar a una o más herramientas. Especificar una herramienta concreta obliga {"type": "function", "function": {"name": "my_function"}} al modelo a llamar a esa herramienta. none es el valor predeterminado cuando no hay herramientas presentes. auto es el valor predeterminado si hay herramientas presentes.

Este componente puede ser uno de los siguientes:

chatCompletionNamedToolChoice

Especifica una herramienta que debe usar el modelo. Úsalo para forzar que el modelo llame a una función específica.

Name Type Description Required Default
type enum El tipo de herramienta. Actualmente, solo function está soportado.
Valores posibles: función
Yes
function object Yes

Propiedades para la función

name

Name Type Description Default
name string El nombre de la función a llamar.

ParallelToolCalls

Si activar la llamada de funciones paralelas durante el uso de la herramienta.

No hay propiedades definidas para este componente.

chatCompletionMessageToolCalls

Las llamadas a la herramienta generadas por el modelo, como las llamadas a funciones.

No hay propiedades definidas para este componente.

chatCompletionFunctionCall

Obsoleto y reemplazado por tool_calls. El nombre y los argumentos de una función que debe llamarse, tal como se genera el modelo.

Name Type Description Required Default
name string El nombre de la función a llamar. Yes
arguments string Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por tu esquema de función. Valida los argumentos de tu código antes de llamar a tu función. Yes

completionUsage

Estadísticas de uso para la solicitud de finalización.

Name Type Description Required Default
prompt_tokens integer Número de fichas en el prompt. Yes
completion_tokens integer Número de tokens en la finalización generada. Yes
total_tokens integer Número total de tokens utilizados en la solicitud (prompt + completación). Yes
completion_tokens_details object Desglose de los tokens usados en una finalización. No

Propiedades para completion_tokens_details

reasoning_tokens

Name Type Description Default
reasoning_tokens integer Tokens generados por el modelo para razonamiento.

chatCompletionTool

Name Type Description Required Default
type enum El tipo de herramienta. Actualmente, solo function está soportado.
Valores posibles: función
Yes
function FunctionObject Yes

FunctionParameters

Los parámetros que aceptan las funciones se describen como un objeto de esquema JSON. Consulta la guía para ejemplos y la referencia del esquema JSON para documentación sobre el formato.

Omitir parameters define una función con una lista de parámetros vacía.

No hay propiedades definidas para este componente.

FunctionObject

Name Type Description Required Default
description string Una descripción de lo que hace la función, utilizada por el modelo para elegir cuándo y cómo llamar a la función. No
name string El nombre de la función a llamar. Debe ser de la a-z, de la A a la Z, del 0 al 9, o contener guiones bajos y guiones, con una longitud máxima de 64. Yes
parameters FunctionParameters Los parámetros que aceptan las funciones se describen como un objeto de esquema JSON. Consulta la guía para ejemplos y la referencia del esquema JSON para documentación sobre el formato.

Omitir parameters define una función con una lista de parámetros vacía.
No
strict boolean Si se debe habilitar la adhesión estricta al esquema al generar la llamada a la función. Si se establece como verdadero, el modelo seguirá el esquema exacto definido en el parameters campo. Solo se soporta un subconjunto de JSON Schema cuando strict es true. No False

ResponseFormatText

Name Type Description Required Default
type enum El tipo de formato de respuesta que se está definiendo: text
Valores posibles: texto
Yes

ResponseFormatJsonObject

Name Type Description Required Default
type enum El tipo de formato de respuesta que se está definiendo: json_object
Valores posibles: json_object
Yes

ResponseFormatJsonSchemaSchema

El esquema para el formato de respuesta, descrito como un objeto de esquema JSON.

No hay propiedades definidas para este componente.

ResponseFormatJsonSchema

Name Type Description Required Default
type enum El tipo de formato de respuesta que se está definiendo: json_schema
Valores posibles: json_schema
Yes
json_schema object Yes

Propiedades para json_schema

description

Name Type Description Default
description string Una descripción de para qué sirve el formato de respuesta, utilizada por el modelo para determinar cómo responder en el formato.

name

Name Type Description Default
name string El nombre del formato de respuesta. Debe ser de la a-z, de la A a la Z, del 0 al 9, o contener guiones bajos y guiones, con una longitud máxima de 64.

schema

Name Type Description Default
schema ResponseFormatJsonSchemaSchema El esquema para el formato de respuesta, descrito como un objeto de esquema JSON.

strict

Name Type Description Default
strict boolean Si se debe habilitar una adhesión estricta al esquema al generar la salida. Si se establece como verdadero, el modelo siempre seguirá el esquema exacto definido en el schema campo. Solo se soporta un subconjunto de JSON Schema cuando strict es true. False

chatCompletionChoiceCommon

Name Type Description Required Default
index integer No
finish_reason string No

createTranslationRequest

Translation request.

Name Type Description Required Default
file string El archivo de audio para traducir. Yes
prompt string Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. El prompt debería estar en inglés. No
response_format audioResponseFormat Define el formato de la salida. No
temperature number La temperatura de muestreo, entre 0 y 1. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Si se establece en 0, el modelo usará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta alcanzar ciertos umbrales. No 0

audioResponse

Respuesta de traducción o transcripción cuando response_format era json

Name Type Description Required Default
text string Texto traducido o transcrito. Yes

audioVerboseResponse

Respuesta de traducción o transcripción cuando response_format estaba verbose_json

Name Type Description Required Default
text string Texto traducido o transcrito. Yes
task string Tipo de tarea de audio. No
language string Language. No
duration number Duration. No
segments array No

audioResponseFormat

Define el formato de la salida.

Descripción: Define el formato de la salida.

Type: string

Default:

Enum Values:

  • json
  • text
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

Transcription request.

Name Type Description Required Default
file string El objeto de archivo de audio para transcribir. Yes
prompt string Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. El prompt debería coincidir con el lenguaje del audio. No
response_format audioResponseFormat Define el formato de la salida. No
temperature number La temperatura de muestreo, entre 0 y 1. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Si se establece en 0, el modelo usará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta alcanzar ciertos umbrales. No 0
language string El idioma del audio de entrada. Suministrar el lenguaje de entrada en formato ISO-639-1 mejorará la precisión y la latencia. No

audioSegment

Segmento de transcripción o traducción.

Name Type Description Required Default
id integer Segment identifier. No
seek number Desplazamiento del segmento. No
start number Inicio de segmento desplazado. No
end number Desplazamiento de final de segmento. No
text string Segment text. No
tokens array Símbolos del texto. No
temperature number Temperature. No
avg_logprob number Probabilidad logarítmica media. No
compression_ratio number Compression ratio. No
no_speech_prob number Probabilidad de no speech. No

imageQuality

La calidad de la imagen que se generará.

Descripción: La calidad de la imagen que se generará.

Type: string

Default: standard

Nombre Enum: Quality

Enum Values:

Value Description
standard La calidad estándar crea imágenes con calidad estándar.
hd La calidad HD crea imágenes con detalles más finos y mayor consistencia en toda la imagen.

imagesResponseFormat

El formato en el que se devuelven las imágenes generadas.

Descripción: El formato en el que se devuelven las imágenes generadas.

Type: string

Default: url

Nombre de Enum: ImágenesFormatoRespuesta

Enum Values:

Value Description
url La URL que proporciona acceso temporal para descargar las imágenes generadas.
b64_json Las imágenes generadas se devuelven como cadena codificada en base64.

imageSize

El tamaño de las imágenes generadas.

Descripción: El tamaño de las imágenes generadas.

Type: string

Default: 1024x1024

Nombre de Enum: Tamaño

Enum Values:

Value Description
1792x1024 El tamaño deseado de la imagen generada es de 1792x1024 píxeles.
1024x1792 El tamaño deseado de la imagen generada es de 1024x1792 píxeles.
1024x1024 El tamaño deseado de la imagen generada es 1024x1024 píxeles.

imageStyle

El estilo de las imágenes generadas.

Descripción: El estilo de las imágenes generadas.

Type: string

Default: vivid

Nombre de Enum: Style

Enum Values:

Value Description
vivid Vivid crea imágenes hiperrealistas y dramáticas.
natural Natural crea imágenes más naturales y menos hiperrealistas.

imageGenerationsRequest

Name Type Description Required Default
prompt string Una descripción en texto de la(s) imagen(es) deseada(s). La longitud máxima es de 4.000 caracteres. Yes
n integer El número de imágenes que hay que generar. No 1
size imageSize El tamaño de las imágenes generadas. No 1024x1024
response_format imagesResponseFormat El formato en el que se devuelven las imágenes generadas. No url
user string Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. No
quality imageQuality La calidad de la imagen que se generará. No standard
style imageStyle El estilo de las imágenes generadas. No vivid

generateImagesResponse

Name Type Description Required Default
created integer La marca de tiempo de Unix cuando se creó la operación. Yes
data array Los datos de resultados de la operación, si tienen éxito Yes

imageResult

La URL de la imagen o la imagen codificada si tienen éxito, y un error en caso contrario.

Name Type Description Required Default
url string La URL de la imagen. No
b64_json string La imagen codificada base64 No
content_filter_results dalleContentFilterResults Información sobre los resultados del filtrado de contenido. No
revised_prompt string El prompt que se usó para generar la imagen, si hubo alguna revisión del prompt. No
prompt_filter_results dalleFilterResults Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de clientes bloqueados, si ha sido filtrada y su identificación. No

Completions extensions

Las extensiones de completiones no forman parte de la última versión de GA de la especificación de inferencia del plano de datos de Azure OpenAI.

Chatmessage

El objeto de mensaje Chat no forma parte de la última versión de GA de la especificación de inferencia del plano de datos de Azure OpenAI.

Texto a voz (Vista previa)

Actualmente no forma parte de la última versión Azure OpenAI GA de la especificación de inferencia de planos de datos de OpenAI Azure. Consulte la última versión previsualización para esta capacidad.

Next steps

Aprende sobre modelos y ajustes finos con la API REST. Obtenga más información sobre los modelos underlying que potencian Azure OpenAI.