Azure OpenAI en Microsoft referencia de la API REST de modelos de foundry

En este artículo se proporcionan detalles sobre los puntos de conexión de la API REST de inferencia para Azure OpenAI.

API specs

La administración e interacción con Azure modelos y recursos de OpenAI se divide en tres superficies de API principales:

  • Control plane
  • Plano de datos: creación
  • Plano de datos: inferencia

Cada superficie o especificación de API encapsula un conjunto diferente de Azure funcionalidades de OpenAI. Cada API tiene su propio conjunto único de versiones preliminares y estables o disponibles con carácter general (GA). Las versiones preliminares tienden actualmente a seguir una cadencia mensual.

Important

Ahora hay una nueva API de inferencia en versión preliminar. Obtenga más información en nuestra guía del ciclo de vida de la API.

API Versión preliminar más reciente Última versión de disponibilidad general Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files La API del plano de control se usa para operaciones como la creación de recursos, la implementación de modelos y otras tareas de administración de recursos de nivel superior. El plano de control también rige lo que es posible hacer con funcionalidades como Azure Resource Manager, Bicep, Terraform y CLI de Azure.
Data plane v1 preview v1 Spec files La API del plano de datos controla las operaciones de inferencia y creación.

Authentication

Azure OpenAI proporciona dos métodos para la autenticación. Puede usar claves de API o Microsoft Entra ID.

  • Autenticación de clave de API: para este tipo de autenticación, todas las solicitudes de API deben incluir la clave de API en el api-key encabezado HTTP. En el inicio rápido se proporcionan instrucciones sobre cómo realizar llamadas con este tipo de autenticación.

  • Microsoft Entra ID autenticación: puede autenticar una llamada API mediante un token de Microsoft Entra. Los tokens de autenticación se incluyen en una solicitud como Authorization encabezado. El token proporcionado debe ir precedido por Bearer, por ejemplo Bearer YOUR_AUTH_TOKEN. Puede leer nuestra guía paso a paso sobre authenticating con Microsoft Entra ID.

Control de versiones de la API REST

Las API de servicio se versionan mediante el api-version parámetro de consulta. Todas las versiones siguen la estructura de fechas YYYY-MM-DD. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferencia del plano de datos

El resto del artículo trata la versión de disponibilidad general de la especificación de inferencia del plano de datos de OpenAI de Azure, 2024-10-21.

Si busca documentación sobre la versión preliminar más reciente de la API, consulte la API de inferencia del plano de datos en versión preliminar más reciente.

Completions

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

Crea una finalización para el símbolo del sistema, los parámetros y el modelo elegido proporcionados.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Identificador de implementación del modelo que se implementó.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Proporcione Azure clave de API de OpenAI aquí

Request Body

Content-Type: application/json

Name Type Description Required Default
prompt string o array Los avisos para generar finalizaciones, codificadas como una cadena, una matriz de cadenas, una matriz de tokens o una matriz de matrices de tokens.

Tenga en cuenta que <|endoftext|> es el separador de documentos que ve el modelo durante el entrenamiento, por lo que si no se especifica un mensaje, el modelo generará como si fuera el principio de un nuevo documento.
Yes
best_of integer Genera best_of finalizaciones del lado servidor y devuelve el "mejor" (el que tiene la mayor probabilidad de registro por token). Los resultados no se pueden transmitir.

Cuando se usa con n, controla el número de finalizaciones candidatas y best_of especifica cuántos devolver n deben ser mayores que best_ofn .

Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Use cuidadosamente y asegúrese de que tiene una configuración razonable para max_tokens y stop.
No 1
echo boolean Vuelva a enviar el mensaje además de la finalización.
No False
frequency_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que el modelo repita la misma línea textualmente.
No 0
logit_bias object Modifique la probabilidad de que aparezcan los tokens especificados en la finalización.

Acepta un objeto JSON que asigna tokens (especificados por su identificador de token en el tokenizador GPT) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará por modelo, pero los valores entre -1 y 1 deben disminuir o aumentar la probabilidad de selección; los valores como -100 o 100 deben dar lugar a una prohibición o selección exclusiva del token correspondiente.

Por ejemplo, puede pasar {"50256": -100} para evitar que se genere el <token |endoftext|> .
No None
logprobs integer Incluya las probabilidades de registro en los logprobs tokens de salida más probables, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devolverá una lista de los cinco tokens más probables. La API siempre devolverá el logprob del token muestreado, por lo que puede haber elementos logprobs+1 en la respuesta.

El valor máximo de logprobs es 5.
No None
max_tokens integer Número máximo de tokens que se pueden generar en la finalización.

El recuento de tokens del símbolo del sistema más max_tokens no puede superar la longitud del contexto del modelo.
No 16
n integer Cuántas finalizaciones se van a generar para cada solicitud.

Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Use cuidadosamente y asegúrese de que tiene una configuración razonable para max_tokens y stop.
No 1
presence_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que el modelo hable sobre nuevos temas.
No 0
seed integer Si se especifica, nuestro sistema hará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con los mismos seed parámetros y deben devolver el mismo resultado.

No se garantiza el determinismo y debe hacer referencia al system_fingerprint parámetro de respuesta para supervisar los cambios en el back-end.
No
stop string o array Hasta cuatro secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención.
No
stream boolean Indica si se va a devolver el progreso parcial. Si se establece, los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, con la secuencia terminada por un data: [DONE] mensaje. No False
suffix string Sufijo que viene después de completar el texto insertado.

Este parámetro solo se admite para gpt-3.5-turbo-instruct.
No None
temperature number Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista.

Por lo general, se recomienda modificar esto o top_p no ambos.
No 1
top_p number Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%.

Por lo general, se recomienda modificar esto o temperature no ambos.
No 1
user string Identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos.
No

Responses

Código de estado: 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse Representa una respuesta de finalización de la API. Nota: los objetos de respuesta transmitidos y no transmitidos comparten la misma forma (a diferencia del punto de conexión de chat).

Código de estado: valor predeterminado

Descripción: Servicio no disponible

Content-Type Type Description
application/json errorResponse

Examples

Example

Crea una finalización para el símbolo del sistema, los parámetros y el modelo elegido proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Embeddings

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

Obtenga una representación vectorial de una entrada determinada que los modelos y algoritmos de aprendizaje automático pueden consumir fácilmente.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Proporcione Azure clave de API de OpenAI aquí

Request Body

Content-Type: application/json

Name Type Description Required Default
input string o array Texto de entrada para insertar, codificado como una cadena o matriz de tokens. Para insertar varias entradas en una sola solicitud, pase una matriz de cadenas o matriz de matrices de tokens. La entrada no debe superar el número máximo de tokens de entrada para el modelo (8192 tokens para text-embedding-ada-002), no puede ser una cadena vacía y cualquier matriz debe tener 2048 dimensiones o menos. Yes
user string Un identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos. No
input_type string tipo de entrada de búsqueda de inserción que se va a usar No
encoding_format string Formato en el que se devuelven las incrustaciones. Puede ser float o base64. El valor predeterminado es float. No
dimensions integer Número de dimensiones que deben tener las incrustaciones de salida resultantes. Solo se admite en text-embedding-3 modelos posteriores y posteriores. No

Responses

Name Type Description Required Default
object string Yes
model string Yes
data array Yes
usage object Yes

Propiedades de uso

prompt_tokens

Name Type Description Default
prompt_tokens integer

total_tokens

Name Type Description Default
total_tokens integer

Código de estado: 200

Description: OK

Content-Type Type Description
application/json object

Examples

Example

Devuelve las instituciones de un mensaje determinado.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Chat completions

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

Crea una finalización para el mensaje de chat.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Identificador de implementación del modelo que se implementó.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Proporcione Azure clave de API de OpenAI aquí

Request Body

Content-Type: application/json

Name Type Description Required Default
temperature number Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista.

Por lo general, se recomienda modificar esto o top_p no ambos.
No 1
top_p number Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%.

Por lo general, se recomienda modificar esto o temperature no ambos.
No 1
stream boolean Si se establece, se enviarán diferencias de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, con la secuencia terminada por un data: [DONE] mensaje. No False
stop string o array Hasta cuatro secuencias en las que la API dejará de generar más tokens.
No
max_tokens integer Número máximo de tokens que se pueden generar en la finalización del chat.

La longitud total de los tokens de entrada y los tokens generados está limitado por la longitud de contexto del modelo.
No
max_completion_tokens integer Límite superior para el número de tokens que se pueden generar para una finalización, incluidos los tokens de salida visibles y los tokens de razonamiento. No
presence_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que el modelo hable sobre nuevos temas.
No 0
frequency_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que el modelo repita la misma línea textualmente.
No 0
logit_bias object Modifique la probabilidad de que aparezcan los tokens especificados en la finalización.

Acepta un objeto JSON que asigna tokens (especificados por su identificador de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará por modelo, pero los valores entre -1 y 1 deben disminuir o aumentar la probabilidad de selección; los valores como -100 o 100 deben dar lugar a una prohibición o selección exclusiva del token correspondiente.
No None
user string Identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos.
No
messages array Una lista de mensajes que componen la conversación hasta ahora. Yes
data_sources array Las entradas de configuración de Azure extensiones de chat de OpenAI que las usan.
Esta especificación adicional solo es compatible con Azure OpenAI.
No
logprobs boolean Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en de contentmessage. No False
top_logprobs integer Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada. logprobs debe establecerse en true si se usa este parámetro. No
n integer Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada. Tenga en cuenta que se le cobrará en función del número de tokens generados en todas las opciones. Mantenga n el modo de 1 minimizar los costos. No 1
parallel_tool_calls ParallelToolCalls Indica si se debe habilitar la llamada a funciones paralelas durante el uso de la herramienta. No True
response_format ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema Objeto que especifica el formato que debe generar el modelo. Compatible con GPT-4o, GPT-4o mini, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo más recientes que gpt-3.5-turbo-1106.

Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincidirá con el esquema JSON proporcionado.

Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo es JSON válido.

Importante: al usar el modo JSON, también debe indicar al modelo que genere JSON usted mismo a través de un mensaje del sistema o del usuario. Sin esto, el modelo puede generar una secuencia de espacios en blanco no deseada hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta también que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o que la conversación superó la longitud máxima del contexto.
No
seed integer Esta característica está en beta.
Si se especifica, nuestro sistema hará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con los mismos seed parámetros y deben devolver el mismo resultado.
No se garantiza el determinismo y debe hacer referencia al system_fingerprint parámetro de respuesta para supervisar los cambios en el back-end.
No
tools array Una lista de herramientas a las que puede llamar el modelo. Actualmente, solo se admiten funciones como una herramienta. Úselo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. Se admite un máximo de 128 funciones.
No
tool_choice chatCompletionToolChoiceOption Controla la herramienta a la que llama el modelo (si existe). none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas. required significa que el modelo debe llamar a una o varias herramientas. Especificar una herramienta determinada a través de {"type": "function", "function": {"name": "my_function"}} fuerza al modelo a llamar a esa herramienta. none es el valor predeterminado cuando no hay herramientas presentes. auto es el valor predeterminado si las herramientas están presentes. No
function_call string o chatCompletionFunctionCallOption En desuso en favor de tool_choice.

Controla la función (si existe) a la que llama el modelo.
none significa que el modelo no llamará a una función y, en su lugar, generará un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función.
Especificar una función determinada a través de {"name": "my_function"} obliga al modelo a llamar a esa función.

none es el valor predeterminado cuando no hay funciones presentes. auto es el valor predeterminado si hay funciones presentes.
No
functions array En desuso en favor de tools.

Una lista de funciones para las que el modelo puede generar entradas JSON.
No

Responses

Código de estado: 200

Description: OK

Content-Type Type Description
application/json createChatCompletionResponse o createChatCompletionStreamResponse

Código de estado: valor predeterminado

Descripción: Servicio no disponible

Content-Type Type Description
application/json errorResponse

Examples

Example

Crea una finalización para el símbolo del sistema, los parámetros y el modelo elegido proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea una finalización basada en Azure Datos de búsqueda y identidad administrada asignada por el sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea una finalización basada en Azure datos vectoriales de búsqueda, el mensaje del asistente anterior y la identidad administrada asignada por el usuario.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea una finalización para el Azure Cosmos DB proporcionado.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcripciones: crear

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Transcribe el audio en el idioma de entrada.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Id. de implementación del modelo de voz en texto.

Para obtener información sobre los modelos admitidos, consulte [/azure/ai-foundry/openai/concepts/models#audio-models].
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Proporcione Azure clave de API de OpenAI aquí

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Objeto de archivo de audio que se va a transcribir. Yes
prompt string Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe coincidir con el idioma de audio. No
response_format audioResponseFormat Define el formato de la salida. No
temperature number Temperatura de muestreo, entre 0 y 1. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. No 0
language string Idioma del audio de entrada. Proporcionar el idioma de entrada en formato ISO-639-1 mejorará la precisión y la latencia. No

Responses

Código de estado: 200

Description: OK

Content-Type Type Description
application/json audioResponse o audioVerboseResponse
text/plain string Texto transcrito en el formato de salida (cuando response_format era uno de texto, vtt o srt).

Examples

Example

Obtiene texto transcrito y metadatos asociados de los datos de audio hablados proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Respuestas: Código de estado: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtiene texto transcrito y metadatos asociados de los datos de audio hablados proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respuestas: Código de estado: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traducciones: crear

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

Transcribe y traduce el audio de entrada en texto en inglés.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Id. de implementación del modelo de susurro que se implementó.

Para obtener información sobre los modelos admitidos, consulte [/azure/ai-foundry/openai/concepts/models#audio-models].
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Proporcione Azure clave de API de OpenAI aquí

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Archivo de audio que se va a traducir. Yes
prompt string Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe estar en inglés. No
response_format audioResponseFormat Define el formato de la salida. No
temperature number Temperatura de muestreo, entre 0 y 1. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. No 0

Responses

Código de estado: 200

Description: OK

Content-Type Type Description
application/json audioResponse o audioVerboseResponse
text/plain string Texto transcrito en el formato de salida (cuando response_format era uno de texto, vtt o srt).

Examples

Example

Obtiene el texto transcrito en inglés y los metadatos asociados de los datos de audio hablados proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respuestas: Código de estado: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtiene el texto transcrito en inglés y los metadatos asociados de los datos de audio hablados proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respuestas: Código de estado: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Image generation

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

Genera un lote de imágenes a partir de un título de texto en una implementación de modelo dall-e determinada.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Identificador de implementación del modelo dall-e que se implementó.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Proporcione Azure clave de API de OpenAI aquí

Request Body

Content-Type: application/json

Name Type Description Required Default
prompt string Descripción de texto de las imágenes deseadas. La longitud máxima es de 4000 caracteres. Yes
n integer Número de imágenes que se van a generar. No 1
size imageSize Tamaño de las imágenes generadas. No 1024x1024
response_format imagesResponseFormat Formato en el que se devuelven las imágenes generadas. No url
user string Identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos. No
quality imageQuality Calidad de la imagen que se generará. No standard
style imageStyle Estilo de las imágenes generadas. No vivid

Responses

Código de estado: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Código de estado: valor predeterminado

Descripción: se produjo un error.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Crea imágenes dadas una solicitud.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Respuestas: Código de estado: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Components

errorResponse

Name Type Description Required Default
error error No

errorBase

Name Type Description Required Default
code string No
message string No

error

Name Type Description Required Default
param string No
type string No
inner_error innerError Error interno con detalles adicionales. No

innerError

Error interno con detalles adicionales.

Name Type Description Required Default
code innerErrorCode Códigos de error para el objeto de error interno. No
content_filter_results contentFilterPromptResults Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. No

innerErrorCode

Códigos de error para el objeto de error interno.

Descripción: códigos de error para el objeto de error interno.

Type: string

Default:

Nombre de enumeración: InnerErrorCode

Enum Values:

Value Description
ResponsibleAIPolicyViolation El mensaje infringía una de las reglas de filtro de contenido.

dalleErrorResponse

Name Type Description Required Default
error dalleError No

dalleError

Name Type Description Required Default
param string No
type string No
inner_error dalleInnerError Error interno con detalles adicionales. No

dalleInnerError

Error interno con detalles adicionales.

Name Type Description Required Default
code innerErrorCode Códigos de error para el objeto de error interno. No
content_filter_results dalleFilterResults Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. No
revised_prompt string Mensaje que se usó para generar la imagen, si se ha producido alguna revisión en el símbolo del sistema. No

contentFilterResultBase

Name Type Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Type Description Required Default
filtered boolean Yes
severity string No

contentFilterDetectedResult

Name Type Description Required Default
filtered boolean Yes
detected boolean No

contentFilterDetectedWithCitationResult

Name Type Description Required Default
citation object No

Propiedades de la cita

URL

Name Type Description Default
URL string

license

Name Type Description Default
license string

contentFilterResultsBase

Información sobre los resultados del filtrado de contenido.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No

contentFilterPromptResults

Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No
jailbreak contentFilterDetectedResult No

contentFilterChoiceResults

Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre texto de terceros y palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No
protected_material_text contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No

promptFilterResult

Resultados de filtrado de contenido para una sola solicitud en la solicitud.

Name Type Description Required Default
prompt_index integer No
content_filter_results contentFilterPromptResults Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. No

promptFilterResults

Resultados de filtrado de contenido para cero o más avisos en la solicitud. En una solicitud de streaming, los resultados de diferentes mensajes pueden llegar a momentos diferentes o en diferentes pedidos.

No hay propiedades definidas para este componente.

dalleContentFilterResults

Información sobre los resultados del filtrado de contenido.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No

dalleFilterResults

Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No

chatCompletionsRequestCommon

Name Type Description Required Default
temperature number Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista.
Por lo general, se recomienda modificar esto o top_p no ambos.
No 1
top_p number Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%.
Por lo general, se recomienda modificar esto o temperature no ambos.
No 1
stream boolean Si se establece, se enviarán diferencias de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, con la secuencia terminada por un data: [DONE] mensaje. No False
stop string o array Hasta cuatro secuencias en las que la API dejará de generar más tokens. No
max_tokens integer Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4096 : tokens de solicitud). Este valor ahora está en desuso en favor de y no es compatible con los modelos de max_completion_tokensla serie o1. No 4096
max_completion_tokens integer Límite superior para el número de tokens que se pueden generar para una finalización, incluidos los tokens de salida visibles y los tokens de razonamiento. No
presence_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que el modelo hable sobre nuevos temas. No 0
frequency_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que el modelo repita la misma línea textualmente. No 0
logit_bias object Modifique la probabilidad de que aparezcan los tokens especificados en la finalización. Acepta un objeto json que asigna tokens (especificados por su identificador de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará por modelo, pero los valores entre -1 y 1 deben disminuir o aumentar la probabilidad de selección; los valores como -100 o 100 deben dar lugar a una prohibición o selección exclusiva del token correspondiente. No
user string Un identificador único que representa al usuario final, que puede ayudar a Azure OpenAI a supervisar y detectar abusos. No

createCompletionRequest

Name Type Description Required Default
prompt string o array Los avisos para generar finalizaciones, codificadas como una cadena, una matriz de cadenas, una matriz de tokens o una matriz de matrices de tokens.

Tenga en cuenta que <|endoftext|> es el separador de documentos que ve el modelo durante el entrenamiento, por lo que si no se especifica un mensaje, el modelo generará como si fuera el principio de un nuevo documento.
Yes
best_of integer Genera best_of finalizaciones del lado servidor y devuelve el "mejor" (el que tiene la mayor probabilidad de registro por token). Los resultados no se pueden transmitir.

Cuando se usa con n, controla el número de finalizaciones candidatas y best_of especifica cuántos devolver n deben ser mayores que best_ofn .

Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Use cuidadosamente y asegúrese de que tiene una configuración razonable para max_tokens y stop.
No 1
echo boolean Vuelva a enviar el mensaje además de la finalización.
No False
frequency_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que el modelo repita la misma línea textualmente.
No 0
logit_bias object Modifique la probabilidad de que aparezcan los tokens especificados en la finalización.

Acepta un objeto JSON que asigna tokens (especificados por su identificador de token en el tokenizador GPT) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará por modelo, pero los valores entre -1 y 1 deben disminuir o aumentar la probabilidad de selección; los valores como -100 o 100 deben dar lugar a una prohibición o selección exclusiva del token correspondiente.

Por ejemplo, puede pasar {"50256": -100} para evitar que se genere el <token |endoftext|> .
No None
logprobs integer Incluya las probabilidades de registro en los logprobs tokens de salida más probables, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devolverá una lista de los cinco tokens más probables. La API siempre devolverá el logprob del token muestreado, por lo que puede haber elementos logprobs+1 en la respuesta.

El valor máximo de logprobs es 5.
No None
max_tokens integer Número máximo de tokens que se pueden generar en la finalización.

El recuento de tokens del símbolo del sistema más max_tokens no puede superar la longitud del contexto del modelo.
No 16
n integer Cuántas finalizaciones se van a generar para cada solicitud.

Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Use cuidadosamente y asegúrese de que tiene una configuración razonable para max_tokens y stop.
No 1
presence_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que el modelo hable sobre nuevos temas.
No 0
seed integer Si se especifica, nuestro sistema hará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con los mismos seed parámetros y deben devolver el mismo resultado.

No se garantiza el determinismo y debe hacer referencia al system_fingerprint parámetro de respuesta para supervisar los cambios en el back-end.
No
stop string o array Hasta cuatro secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención.
No
stream boolean Indica si se va a devolver el progreso parcial. Si se establece, los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, con la secuencia terminada por un data: [DONE] mensaje. No False
suffix string Sufijo que viene después de completar el texto insertado.

Este parámetro solo se admite para gpt-3.5-turbo-instruct.
No None
temperature number Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista.

Por lo general, se recomienda modificar esto o top_p no ambos.
No 1
top_p number Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%.

Por lo general, se recomienda modificar esto o temperature no ambos.
No 1
user string Identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos.
No

createCompletionResponse

Representa una respuesta de finalización de la API. Nota: los objetos de respuesta transmitidos y no transmitidos comparten la misma forma (a diferencia del punto de conexión de chat).

Name Type Description Required Default
id string Identificador único para la finalización. Yes
choices array La lista de opciones de finalización que el modelo generó para el mensaje de entrada. Yes
created integer Marca de tiempo de Unix (en segundos) de cuando se creó la finalización. Yes
model string Modelo usado para la finalización. Yes
prompt_filter_results promptFilterResults Resultados de filtrado de contenido para cero o más avisos en la solicitud. En una solicitud de streaming, los resultados de diferentes mensajes pueden llegar a momentos diferentes o en diferentes pedidos. No
system_fingerprint string Esta huella digital representa la configuración de back-end con la que se ejecuta el modelo.

Se puede usar junto con el seed parámetro de solicitud para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo.
No
object enum Tipo de objeto, que siempre es "text_completion"
Valores posibles: text_completion
Yes
usage completionUsage Estadísticas de uso de la solicitud de finalización. No

createChatCompletionRequest

Name Type Description Required Default
temperature number Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista.

Por lo general, se recomienda modificar esto o top_p no ambos.
No 1
top_p number Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%.

Por lo general, se recomienda modificar esto o temperature no ambos.
No 1
stream boolean Si se establece, se enviarán diferencias de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, con la secuencia terminada por un data: [DONE] mensaje. No False
stop string o array Hasta cuatro secuencias en las que la API dejará de generar más tokens.
No
max_tokens integer Número máximo de tokens que se pueden generar en la finalización del chat.

La longitud total de los tokens de entrada y los tokens generados está limitado por la longitud de contexto del modelo.
No
max_completion_tokens integer Límite superior para el número de tokens que se pueden generar para una finalización, incluidos los tokens de salida visibles y los tokens de razonamiento. No
presence_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que el modelo hable sobre nuevos temas.
No 0
frequency_penalty number Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que el modelo repita la misma línea textualmente.
No 0
logit_bias object Modifique la probabilidad de que aparezcan los tokens especificados en la finalización.

Acepta un objeto JSON que asigna tokens (especificados por su identificador de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará por modelo, pero los valores entre -1 y 1 deben disminuir o aumentar la probabilidad de selección; los valores como -100 o 100 deben dar lugar a una prohibición o selección exclusiva del token correspondiente.
No None
user string Identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos.
No
messages array Una lista de mensajes que componen la conversación hasta ahora. Yes
data_sources array Las entradas de configuración de Azure extensiones de chat de OpenAI que las usan.
Esta especificación adicional solo es compatible con Azure OpenAI.
No
logprobs boolean Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en de contentmessage. No False
top_logprobs integer Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada. logprobs debe establecerse en true si se usa este parámetro. No
n integer Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada. Tenga en cuenta que se le cobrará en función del número de tokens generados en todas las opciones. Mantenga n el modo de 1 minimizar los costos. No 1
parallel_tool_calls ParallelToolCalls Indica si se debe habilitar la llamada a funciones paralelas durante el uso de la herramienta. No True
response_format ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema Objeto que especifica el formato que debe generar el modelo. Compatible con GPT-4o, GPT-4o mini, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo más recientes que gpt-3.5-turbo-1106.

Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincidirá con el esquema JSON proporcionado.

Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo es JSON válido.

Importante: al usar el modo JSON, también debe indicar al modelo que genere JSON usted mismo a través de un mensaje del sistema o del usuario. Sin esto, el modelo puede generar una secuencia de espacios en blanco no deseada hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta también que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o que la conversación superó la longitud máxima del contexto.
No
seed integer Esta característica está en beta.
Si se especifica, nuestro sistema hará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con los mismos seed parámetros y deben devolver el mismo resultado.
No se garantiza el determinismo y debe hacer referencia al system_fingerprint parámetro de respuesta para supervisar los cambios en el back-end.
No
tools array Una lista de herramientas a las que puede llamar el modelo. Actualmente, solo se admiten funciones como una herramienta. Úselo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. Se admite un máximo de 128 funciones.
No
tool_choice chatCompletionToolChoiceOption Controla la herramienta a la que llama el modelo (si existe). none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas. required significa que el modelo debe llamar a una o varias herramientas. Especificar una herramienta determinada a través de {"type": "function", "function": {"name": "my_function"}} fuerza al modelo a llamar a esa herramienta. none es el valor predeterminado cuando no hay herramientas presentes. auto es el valor predeterminado si las herramientas están presentes. No
function_call string o chatCompletionFunctionCallOption En desuso en favor de tool_choice.

Controla la función (si existe) a la que llama el modelo.
none significa que el modelo no llamará a una función y, en su lugar, generará un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función.
Especificar una función determinada a través de {"name": "my_function"} obliga al modelo a llamar a esa función.

none es el valor predeterminado cuando no hay funciones presentes. auto es el valor predeterminado si hay funciones presentes.
No
functions array En desuso en favor de tools.

Una lista de funciones para las que el modelo puede generar entradas JSON.
No

chatCompletionFunctions

Name Type Description Required Default
description string Descripción de lo que hace la función, que usa el modelo para elegir cuándo y cómo llamar a la función. No
name string Nombre de la función a la que se va a llamar. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64. Yes
parameters FunctionParameters Los parámetros que aceptan las funciones, que se describen como un objeto de esquema JSON. Consulte la guía para obtener ejemplos y la referencia de esquema JSON para obtener documentación sobre el formato.

La omisión parameters define una función con una lista de parámetros vacía.
No

chatCompletionFunctionCallOption

Especificar una función determinada a través de {"name": "my_function"} obliga al modelo a llamar a esa función.

Name Type Description Required Default
name string Nombre de la función a la que se va a llamar. Yes

chatCompletionRequestMessage

Este componente puede ser uno de los siguientes:

chatCompletionRequestSystemMessage

Name Type Description Required Default
content string o array Contenido del mensaje del sistema. Yes
role enum Rol del autor de mensajes, en este caso system.
Valores posibles: sistema
Yes
name string Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre los participantes del mismo rol. No

chatCompletionRequestUserMessage

Name Type Description Required Default
content string o array Contenido del mensaje de usuario.
Yes
role enum Rol del autor de mensajes, en este caso user.
Valores posibles: usuario
Yes
name string Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre los participantes del mismo rol. No

chatCompletionRequestAssistantMessage

Name Type Description Required Default
content string o array Contenido del mensaje del asistente. Obligatorio a menos tool_calls que se especifique o function_call .
No
refusal string Mensaje de denegación por parte del asistente. No
role enum Rol del autor de mensajes, en este caso assistant.
Valores posibles: asistente
Yes
name string Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre los participantes del mismo rol. No
tool_calls chatCompletionMessageToolCalls La herramienta llama a las llamadas generadas por el modelo, como las llamadas de función. No
function_call object En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo. No

Propiedades de function_call

arguments

Name Type Description Default
arguments string Argumentos para llamar a la función con, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función.

name

Name Type Description Default
name string Nombre de la función a la que se va a llamar.

chatCompletionRequestToolMessage

Name Type Description Required Default
role enum Rol del autor de mensajes, en este caso tool.
Valores posibles: herramienta
Yes
content string o array Contenido del mensaje de la herramienta. Yes
tool_call_id string Llamada a la herramienta a la que responde este mensaje. Yes

chatCompletionRequestFunctionMessage

Name Type Description Required Default
role enum Rol del autor de mensajes, en este caso function.
Valores posibles: función
Yes
content string Contenido del mensaje de función. Yes
name string Nombre de la función a la que se va a llamar. Yes

chatCompletionRequestSystemMessageContentPart

Este componente puede ser uno de los siguientes:

chatCompletionRequestUserMessageContentPart

Este componente puede ser uno de los siguientes:

chatCompletionRequestAssistantMessageContentPart

Este componente puede ser uno de los siguientes:

chatCompletionRequestToolMessageContentPart

Este componente puede ser uno de los siguientes:

chatCompletionRequestMessageContentPartText

Name Type Description Required Default
type enum Tipo del elemento de contenido.
Valores posibles: texto
Yes
text string Contenido de texto. Yes

chatCompletionRequestMessageContentPartImage

Name Type Description Required Default
type enum Tipo del elemento de contenido.
Valores posibles: image_url
Yes
image_url object Yes

Propiedades de image_url

url

Name Type Description Default
url string Una dirección URL de la imagen o los datos de imagen codificados en base64.

detail

Name Type Description Default
detail string Especifica el nivel de detalle de la imagen. Obtenga más información en la guía visión. auto

chatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
type enum Tipo del elemento de contenido.
Valores posibles: denegación
Yes
refusal string Mensaje de denegación generado por el modelo. Yes

azureChatExtensionConfiguration

Representación de los datos de configuración para una sola extensión de chat de OpenAI Azure. Esto lo usará una solicitud de finalizaciones de chat que debe usar Azure extensiones de chat de OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.

Name Type Description Required Default
type azureChatExtensionType Representación de los datos de configuración para una sola extensión de chat de OpenAI Azure. Esto lo usará un chat.
solicitudes de finalización que deben usar Azure extensiones de chat de OpenAI para aumentar el comportamiento de la respuesta.
El uso de esta configuración solo es compatible con Azure OpenAI.
Yes

azureChatExtensionType

Representación de los datos de configuración para una sola extensión de chat de OpenAI Azure. Esto lo usará una solicitud de finalizaciones de chat que debe usar Azure extensiones de chat de OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.

Description: representación de los datos de configuración para una sola extensión de chat de OpenAI de Azure. Esto lo usará una solicitud de finalizaciones de chat que debe usar Azure extensiones de chat de OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.

Type: string

Default:

Nombre de enumeración: AzureChatExtensionType

Enum Values:

Value Description
azure_search Representa el uso de Azure Search como una extensión de chat de OpenAI Azure.
azure_cosmos_db Representa el uso de Azure Cosmos DB como una extensión de chat de OpenAI Azure.

azureSearchChatExtensionConfiguration

Representación específica de opciones configurables para Azure Search cuando se usa como una extensión de chat de OpenAI Azure.

Name Type Description Required Default
type azureChatExtensionType Representación de los datos de configuración para una sola extensión de chat de OpenAI Azure. Esto lo usará un chat.
solicitudes de finalización que deben usar Azure extensiones de chat de OpenAI para aumentar el comportamiento de la respuesta.
El uso de esta configuración solo es compatible con Azure OpenAI.
Yes
parameters azureSearchChatExtensionParameters Parámetros de Azure Search cuando se usa como una extensión de chat de OpenAI Azure. No

azureSearchChatExtensionParameters

Parámetros de Azure Search cuando se usa como una extensión de chat de OpenAI Azure.

Name Type Description Required Default
authentication onYourDataApiKeyAuthenticationOptions o onYourDataSystemAssignedManagedIdentityAuthenticationOptions o onYourDataUserAssignedManagedIdentityAuthenticationOptions Yes
top_n_documents integer El número superior configurado de documentos que se van a presentar para la consulta configurada. No
in_scope boolean Si las consultas deben restringirse al uso de datos indexados. No
strictness integer La estricta configuración del filtrado de relevancia de búsqueda. Cuanto mayor sea la estricta, mayor será la precisión, pero una menor recuperación de la respuesta. No
role_information string Proporcione las instrucciones del modelo sobre cómo debe comportarse y cualquier contexto al que debe hacer referencia al generar una respuesta. Puede describir la personalidad del asistente y indicarle cómo dar formato a las respuestas. Hay un límite de 100 tokens para él y cuenta con respecto al límite total de tokens. No
endpoint string Ruta de acceso del punto de conexión absoluto para el recurso de búsqueda de Azure que se va a usar. Yes
index_name string Nombre del índice que se va a usar como disponible en el recurso Azure Search al que se hace referencia. Yes
fields_mapping azureSearchIndexFieldMappingOptions Opciones opcionales para controlar cómo se procesan los campos al usar un recurso de búsqueda de Azure configurado. No
query_type azureSearchQueryType Tipo de Azure consulta de recuperación de búsqueda que se debe ejecutar al usarlo como una extensión de chat de OpenAI Azure. No
semantic_configuration string Configuración semántica adicional para la consulta. No
filter string Search filter. No
embedding_dependency onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource No

azureSearchIndexFieldMappingOptions

Opciones opcionales para controlar cómo se procesan los campos al usar un recurso de búsqueda de Azure configurado.

Name Type Description Required Default
title_field string Nombre del campo de índice que se va a usar como título. No
url_field string Nombre del campo de índice que se va a usar como dirección URL. No
filepath_field string Nombre del campo de índice que se va a usar como ruta de acceso de archivo. No
content_fields array Nombres de campos de índice que se deben tratar como contenido. No
content_fields_separator string Patrón separador que deben usar los campos de contenido. No
vector_fields array Nombres de campos que representan datos vectoriales. No

azureSearchQueryType

Tipo de Azure consulta de recuperación de búsqueda que se debe ejecutar al usarlo como una extensión de chat de OpenAI Azure.

Description: tipo de consulta de recuperación de Azure Search que se debe ejecutar al usarlo como una extensión de chat de OpenAI de Azure.

Type: string

Default:

Nombre de enumeración: AzureSearchQueryType

Enum Values:

Value Description
simple Representa el analizador de consultas simple predeterminado.
semantic Representa el analizador de consultas semánticas para el modelado semántico avanzado.
vector Representa la búsqueda de vectores sobre los datos calculados.
vector_simple_hybrid Representa una combinación de la estrategia de consulta simple con datos vectoriales.
vector_semantic_hybrid Representa una combinación de búsqueda semántica y consulta de datos vectoriales.

azureCosmosDBChatExtensionConfiguration

Representación específica de opciones configurables para Azure Cosmos DB cuando se usa como una extensión de chat de OpenAI Azure.

Name Type Description Required Default
type azureChatExtensionType Representación de los datos de configuración para una sola extensión de chat de OpenAI Azure. Esto lo usará un chat.
solicitudes de finalización que deben usar Azure extensiones de chat de OpenAI para aumentar el comportamiento de la respuesta.
El uso de esta configuración solo es compatible con Azure OpenAI.
Yes
parameters azureCosmosDBChatExtensionParameters Parámetros que se usarán al configurar Azure OpenAI en las extensiones de chat de datos al usar Azure Cosmos DB para
MongoDB vCore.
No

azureCosmosDBChatExtensionParameters

Parámetros que se usarán al configurar Azure OpenAI en las extensiones de chat de datos al usar Azure Cosmos DB para núcleo virtual de MongoDB.

Name Type Description Required Default
authentication onYourDataConnectionStringAuthenticationOptions Las opciones de autenticación de Azure OpenAI en los datos al usar un cadena de conexión. Yes
top_n_documents integer El número superior configurado de documentos que se van a presentar para la consulta configurada. No
in_scope boolean Si las consultas deben restringirse al uso de datos indexados. No
strictness integer La estricta configuración del filtrado de relevancia de búsqueda. Cuanto mayor sea la estricta, mayor será la precisión, pero una menor recuperación de la respuesta. No
role_information string Proporcione las instrucciones del modelo sobre cómo debe comportarse y cualquier contexto al que debe hacer referencia al generar una respuesta. Puede describir la personalidad del asistente y indicarle cómo dar formato a las respuestas. Hay un límite de 100 tokens para él y cuenta con respecto al límite total de tokens. No
database_name string Nombre de base de datos de núcleo virtual de MongoDB que se va a usar con Azure Cosmos DB. Yes
container_name string Nombre del contenedor de recursos de Azure Cosmos DB. Yes
index_name string Nombre del índice de núcleo virtual de MongoDB que se va a usar con Azure Cosmos DB. Yes
fields_mapping azureCosmosDBFieldMappingOptions Opciones opcionales para controlar cómo se procesan los campos al usar un recurso de Azure Cosmos DB configurado. Yes
embedding_dependency onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource Yes

azureCosmosDBFieldMappingOptions

Opciones opcionales para controlar cómo se procesan los campos al usar un recurso de Azure Cosmos DB configurado.

Name Type Description Required Default
title_field string Nombre del campo de índice que se va a usar como título. No
url_field string Nombre del campo de índice que se va a usar como dirección URL. No
filepath_field string Nombre del campo de índice que se va a usar como ruta de acceso de archivo. No
content_fields array Nombres de campos de índice que se deben tratar como contenido. Yes
content_fields_separator string Patrón separador que deben usar los campos de contenido. No
vector_fields array Nombres de campos que representan datos vectoriales. Yes

onYourDataAuthenticationOptions

Las opciones de autenticación de Azure OpenAI en los datos.

Name Type Description Required Default
type onYourDataAuthenticationType Los tipos de autenticación compatibles con Azure OpenAI en los datos. Yes

onYourDataAuthenticationType

Los tipos de autenticación compatibles con Azure OpenAI en los datos.

Description: los tipos de autenticación admitidos con Azure OpenAI en los datos.

Type: string

Default:

Nombre de enumeración: OnYourDataAuthenticationType

Enum Values:

Value Description
api_key Autenticación a través de la clave de API.
connection_string Autenticación a través de cadena de conexión.
system_assigned_managed_identity Autenticación a través de la identidad administrada asignada por el sistema.
user_assigned_managed_identity Autenticación a través de la identidad administrada asignada por el usuario.

onYourDataApiKeyAuthenticationOptions

Las opciones de autenticación para Azure OpenAI en los datos al usar una clave de API.

Name Type Description Required Default
type onYourDataAuthenticationType Los tipos de autenticación compatibles con Azure OpenAI en los datos. Yes
key string Clave de API que se va a usar para la autenticación. No

onYourDataConnectionStringAuthenticationOptions

Las opciones de autenticación de Azure OpenAI en los datos al usar un cadena de conexión.

Name Type Description Required Default
type onYourDataAuthenticationType Los tipos de autenticación compatibles con Azure OpenAI en los datos. Yes
connection_string string El cadena de conexión que se va a usar para la autenticación. No

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Las opciones de autenticación para Azure OpenAI en los datos cuando se usa una identidad administrada asignada por el sistema.

Name Type Description Required Default
type onYourDataAuthenticationType Los tipos de autenticación compatibles con Azure OpenAI en los datos. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Las opciones de autenticación para Azure OpenAI en los datos cuando se usa una identidad administrada asignada por el usuario.

Name Type Description Required Default
type onYourDataAuthenticationType Los tipos de autenticación compatibles con Azure OpenAI en los datos. Yes
managed_identity_resource_id string Identificador de recurso de la identidad administrada asignada por el usuario que se va a usar para la autenticación. No

onYourDataVectorizationSource

Representación abstracta de un origen de vectorización para Azure OpenAI en los datos con búsqueda vectorial.

Name Type Description Required Default
type onYourDataVectorizationSourceType Representa los orígenes disponibles Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con
vector search.
Yes

onYourDataVectorizationSourceType

Representa los orígenes disponibles Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con la búsqueda vectorial.

Description: representa los orígenes disponibles Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con
vector search.

Type: string

Default:

Nombre de enumeración: OnYourDataVectorizationSourceType

Enum Values:

Value Description
endpoint Representa la vectorización realizada por llamadas de servicio público a un modelo de inserción de OpenAI Azure.
deployment_name Representa un nombre de implementación del modelo de Ada que se va a usar. Esta implementación del modelo debe estar en el mismo recurso de Azure OpenAI, pero
En los datos, usará esta implementación del modelo a través de una llamada interna en lugar de una pública, lo que permite el vector.
buscar incluso en redes privadas.

onYourDataDeploymentNameVectorizationSource

Los detalles de un origen de vectorización, usado por Azure OpenAI en los datos al aplicar la búsqueda de vectores, que se basa en un nombre de implementación de modelos de inserción interno en el mismo recurso de OpenAI Azure.

Name Type Description Required Default
type onYourDataVectorizationSourceType Representa los orígenes disponibles Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con
vector search.
Yes
deployment_name string Especifica el nombre de la implementación del modelo que se va a usar para la vectorización. Esta implementación del modelo debe estar en el mismo Azure recurso de OpenAI, pero En los datos usará esta implementación de modelo a través de una llamada interna en lugar de una pública, lo que permite la búsqueda de vectores incluso en redes privadas. No

onYourDataEndpointVectorizationSource

Los detalles de un origen de vectorización, usado por Azure OpenAI en los datos al aplicar la búsqueda de vectores, que se basa en una llamada de punto de conexión de OpenAI pública Azure para incrustaciones.

Name Type Description Required Default
type onYourDataVectorizationSourceType Representa los orígenes disponibles Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con
vector search.
Yes
authentication onYourDataApiKeyAuthenticationOptions Las opciones de autenticación para Azure OpenAI en los datos al usar una clave de API. No
endpoint string Especifica el punto de conexión que se va a usar para la vectorización. Este punto de conexión debe estar en el mismo Azure recurso de OpenAI, pero En los datos usará este punto de conexión a través de una llamada interna en lugar de una pública, lo que permite la búsqueda de vectores incluso en redes privadas. No

azureChatExtensionsMessageContext

Representación de la información de contexto adicional disponible cuando Azure extensiones de chat de OpenAI participan en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando se usa una solicitud openAI de Azure configurada para usar una extensión coincidente.

Name Type Description Required Default
citations array Resultado de la recuperación del origen de datos, que se usa para generar el mensaje del asistente en la respuesta. No
intent string La intención detectada del historial de chat, que se usa para pasar al siguiente turno para llevar el contexto. No

citation

información de cita para un mensaje de respuesta de finalizaciones de chat.

Name Type Description Required Default
content string Contenido de la cita. Yes
title string Título de la cita. No
url string Dirección URL de la cita. No
filepath string Ruta de acceso del archivo de la cita. No
chunk_id string Identificador del fragmento de la cita. No

chatCompletionMessageToolCall

Name Type Description Required Default
id string Identificador de la llamada a la herramienta. Yes
type toolCallType Tipo de la llamada a la herramienta, en este caso function. Yes
function object Función a la que llamó el modelo. Yes

Propiedades de la función

name

Name Type Description Default
name string Nombre de la función a la que se va a llamar.

arguments

Name Type Description Default
arguments string Argumentos para llamar a la función con, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función.

toolCallType

Tipo de la llamada a la herramienta, en este caso function.

Descripción: el tipo de la llamada a la herramienta, en este caso function.

Type: string

Default:

Nombre de enumeración: ToolCallType

Enum Values:

Value Description
function El tipo de llamada de herramienta es function.

chatCompletionRequestMessageTool

Name Type Description Required Default
tool_call_id string Llamada a la herramienta a la que responde este mensaje. No
content string Contenido del mensaje. No

chatCompletionRequestMessageFunction

Name Type Description Required Default
role enum Rol del autor de mensajes, en este caso function.
Valores posibles: función
No
name string Contenido del mensaje. No
content string Contenido del mensaje. No

createChatCompletionResponse

Representa una respuesta de finalización de chat devuelta por el modelo, en función de la entrada proporcionada.

Name Type Description Required Default
id string Identificador único para la finalización del chat. Yes
prompt_filter_results promptFilterResults Resultados de filtrado de contenido para cero o más avisos en la solicitud. En una solicitud de streaming, los resultados de diferentes mensajes pueden llegar a momentos diferentes o en diferentes pedidos. No
choices array Una lista de opciones de finalización de chat. Puede ser más de uno si n es mayor que 1. Yes
created integer Marca de tiempo de Unix (en segundos) de cuando se creó la finalización del chat. Yes
model string Modelo usado para la finalización del chat. Yes
system_fingerprint string Esta huella digital representa la configuración de back-end con la que se ejecuta el modelo.

Se puede usar junto con el seed parámetro de solicitud para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo.
No
object enum Tipo de objeto, que siempre chat.completiones .
Valores posibles: chat.completion
Yes
usage completionUsage Estadísticas de uso de la solicitud de finalización. No

createChatCompletionStreamResponse

Representa un fragmento transmitido de una respuesta de finalización de chat devuelta por el modelo, en función de la entrada proporcionada.

Name Type Description Required Default
id string Identificador único para la finalización del chat. Cada fragmento tiene el mismo identificador. Yes
choices array Una lista de opciones de finalización de chat. Puede contener más de un elemento si n es mayor que 1.
Yes
created integer Marca de tiempo de Unix (en segundos) de cuando se creó la finalización del chat. Cada fragmento tiene la misma marca de tiempo. Yes
model string Modelo para generar la finalización. Yes
system_fingerprint string Esta huella digital representa la configuración de back-end con la que se ejecuta el modelo.
Se puede usar junto con el seed parámetro de solicitud para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo.
No
object enum Tipo de objeto, que siempre chat.completion.chunkes .
Valores posibles: chat.completion.chunk
Yes

chatCompletionStreamResponseDelta

Una diferencia de finalización del chat generada por respuestas del modelo transmitido.

Name Type Description Required Default
content string Contenido del mensaje de fragmento. No
function_call object En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo. No
tool_calls array No
role enum Rol del autor de este mensaje.
Valores posibles: system, user, assistant, tool
No
refusal string Mensaje de denegación generado por el modelo. No

Propiedades de function_call

arguments

Name Type Description Default
arguments string Argumentos para llamar a la función con, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función.

name

Name Type Description Default
name string Nombre de la función a la que se va a llamar.

chatCompletionMessageToolCallChunk

Name Type Description Required Default
index integer Yes
id string Identificador de la llamada a la herramienta. No
type enum Tipo de la herramienta. Actualmente, solo function se admite.
Valores posibles: función
No
function object No

Propiedades de la función

name

Name Type Description Default
name string Nombre de la función a la que se va a llamar.

arguments

Name Type Description Default
arguments string Argumentos para llamar a la función con, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función.

chatCompletionStreamOptions

Opciones para la respuesta de streaming. Establézcalo solo cuando establezca stream: true.

Name Type Description Required Default
include_usage boolean Si se establece, se transmitirá un fragmento adicional antes del data: [DONE] mensaje. El usage campo de este fragmento muestra las estadísticas de uso del token para toda la solicitud y el choices campo siempre será una matriz vacía. Todos los demás fragmentos también incluirán un usage campo, pero con un valor NULL.
No

chatCompletionChoiceLogProbs

Registre la información de probabilidad para la elección.

Name Type Description Required Default
content array Lista de tokens de contenido de mensajes con información de probabilidad de registro. Yes
refusal array Lista de tokens de denegación de mensajes con información de probabilidad de registro. No

chatCompletionTokenLogprob

Name Type Description Required Default
token string The token. Yes
logprob number Probabilidad de registro de este token. Yes
bytes array Lista de enteros que representan la representación de bytes UTF-8 del token. Resulta útil en instancias en las que los caracteres se representan mediante varios tokens y sus representaciones de bytes deben combinarse para generar la representación de texto correcta. Puede ser null si no hay ninguna representación de bytes para el token. Yes
top_logprobs array Lista de los tokens más probables y su probabilidad de registro, en esta posición del token. En raras ocasiones, puede haber menos del número de devueltos solicitados top_logprobs . Yes

chatCompletionResponseMessage

Mensaje de finalización de chat generado por el modelo.

Name Type Description Required Default
role chatCompletionResponseMessageRole Rol del autor del mensaje de respuesta. Yes
refusal string Mensaje de denegación generado por el modelo. Yes
content string Contenido del mensaje. Yes
tool_calls array La herramienta llama a las llamadas generadas por el modelo, como las llamadas de función. No
function_call chatCompletionFunctionCall En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo. No
context azureChatExtensionsMessageContext Representación de la información de contexto adicional disponible cuando Azure extensiones de chat de OpenAI están implicadas
en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando
con un Azure solicitud openAI configurada para usar una extensión coincidente.
No

chatCompletionResponseMessageRole

Rol del autor del mensaje de respuesta.

Descripción: rol del autor del mensaje de respuesta.

Type: string

Default:

Enum Values:

  • assistant

chatCompletionToolChoiceOption

Controla la herramienta a la que llama el modelo (si existe). none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas. required significa que el modelo debe llamar a una o varias herramientas. Especificar una herramienta determinada a través de {"type": "function", "function": {"name": "my_function"}} fuerza al modelo a llamar a esa herramienta. none es el valor predeterminado cuando no hay herramientas presentes. auto es el valor predeterminado si las herramientas están presentes.

Este componente puede ser uno de los siguientes:

chatCompletionNamedToolChoice

Especifica una herramienta que debe usar el modelo. Use para forzar que el modelo llame a una función específica.

Name Type Description Required Default
type enum Tipo de la herramienta. Actualmente, solo function se admite.
Valores posibles: función
Yes
function object Yes

Propiedades de la función

name

Name Type Description Default
name string Nombre de la función a la que se va a llamar.

ParallelToolCalls

Indica si se debe habilitar la llamada a funciones paralelas durante el uso de la herramienta.

No hay propiedades definidas para este componente.

chatCompletionMessageToolCalls

La herramienta llama a las llamadas generadas por el modelo, como las llamadas de función.

No hay propiedades definidas para este componente.

chatCompletionFunctionCall

En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo.

Name Type Description Required Default
name string Nombre de la función a la que se va a llamar. Yes
arguments string Argumentos para llamar a la función con, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función. Yes

completionUsage

Estadísticas de uso de la solicitud de finalización.

Name Type Description Required Default
prompt_tokens integer Número de tokens en el símbolo del sistema. Yes
completion_tokens integer Número de tokens en la finalización generada. Yes
total_tokens integer Número total de tokens usados en la solicitud (solicitud + finalización). Yes
completion_tokens_details object Desglose de los tokens usados en una finalización. No

Propiedades de completion_tokens_details

reasoning_tokens

Name Type Description Default
reasoning_tokens integer Tokens generados por el modelo para el razonamiento.

chatCompletionTool

Name Type Description Required Default
type enum Tipo de la herramienta. Actualmente, solo function se admite.
Valores posibles: función
Yes
function FunctionObject Yes

FunctionParameters

Los parámetros que aceptan las funciones, que se describen como un objeto de esquema JSON. Consulte la guía para obtener ejemplos y la referencia de esquema JSON para obtener documentación sobre el formato.

La omisión parameters define una función con una lista de parámetros vacía.

No hay propiedades definidas para este componente.

FunctionObject

Name Type Description Required Default
description string Descripción de lo que hace la función, que usa el modelo para elegir cuándo y cómo llamar a la función. No
name string Nombre de la función a la que se va a llamar. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64. Yes
parameters FunctionParameters Los parámetros que aceptan las funciones, que se describen como un objeto de esquema JSON. Consulte la guía para obtener ejemplos y la referencia de esquema JSON para obtener documentación sobre el formato.

La omisión parameters define una función con una lista de parámetros vacía.
No
strict boolean Indica si se debe habilitar el cumplimiento estricto del esquema al generar la llamada a la función. Si se establece en true, el modelo seguirá el esquema exacto definido en el parameters campo . Solo se admite un subconjunto de esquema JSON cuando strict es true. No False

ResponseFormatText

Name Type Description Required Default
type enum Tipo de formato de respuesta que se está definiendo: text
Valores posibles: texto
Yes

ResponseFormatJsonObject

Name Type Description Required Default
type enum Tipo de formato de respuesta que se está definiendo: json_object
Valores posibles: json_object
Yes

ResponseFormatJsonSchemaSchema

Esquema para el formato de respuesta, descrito como un objeto de esquema JSON.

No hay propiedades definidas para este componente.

ResponseFormatJsonSchema

Name Type Description Required Default
type enum Tipo de formato de respuesta que se está definiendo: json_schema
Valores posibles: json_schema
Yes
json_schema object Yes

Propiedades de json_schema

description

Name Type Description Default
description string Descripción del formato de respuesta que usa el modelo para determinar cómo responder en el formato.

name

Name Type Description Default
name string Nombre del formato de respuesta. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64.

schema

Name Type Description Default
schema ResponseFormatJsonSchemaSchema Esquema para el formato de respuesta, descrito como un objeto de esquema JSON.

strict

Name Type Description Default
strict boolean Indica si se debe habilitar la adhesión estricta al esquema al generar la salida. Si se establece en true, el modelo siempre seguirá el esquema exacto definido en el schema campo. Solo se admite un subconjunto de esquema JSON cuando strict es true. False

chatCompletionChoiceCommon

Name Type Description Required Default
index integer No
finish_reason string No

createTranslationRequest

Translation request.

Name Type Description Required Default
file string Archivo de audio que se va a traducir. Yes
prompt string Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe estar en inglés. No
response_format audioResponseFormat Define el formato de la salida. No
temperature number Temperatura de muestreo, entre 0 y 1. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. No 0

audioResponse

Respuesta de traducción o transcripción cuando response_format era json

Name Type Description Required Default
text string Texto traducido o transcrito. Yes

audioVerboseResponse

Respuesta de traducción o transcripción cuando se verbose_json response_format

Name Type Description Required Default
text string Texto traducido o transcrito. Yes
task string Tipo de tarea de audio. No
language string Language. No
duration number Duration. No
segments array No

audioResponseFormat

Define el formato de la salida.

Descripción: define el formato de la salida.

Type: string

Default:

Enum Values:

  • json
  • text
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

Transcription request.

Name Type Description Required Default
file string Objeto de archivo de audio que se va a transcribir. Yes
prompt string Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe coincidir con el idioma de audio. No
response_format audioResponseFormat Define el formato de la salida. No
temperature number Temperatura de muestreo, entre 0 y 1. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. No 0
language string Idioma del audio de entrada. Proporcionar el idioma de entrada en formato ISO-639-1 mejorará la precisión y la latencia. No

audioSegment

Segmento de transcripción o traducción.

Name Type Description Required Default
id integer Segment identifier. No
seek number Desplazamiento del segmento. No
start number Desplazamiento de inicio del segmento. No
end number Desplazamiento final del segmento. No
text string Segment text. No
tokens array Tokens del texto. No
temperature number Temperature. No
avg_logprob number Probabilidad media del registro. No
compression_ratio number Compression ratio. No
no_speech_prob number Probabilidad de no speech. No

imageQuality

Calidad de la imagen que se generará.

Descripción: calidad de la imagen que se generará.

Type: string

Default: standard

Nombre de enumeración: Calidad

Enum Values:

Value Description
standard La calidad estándar crea imágenes con calidad estándar.
hd La calidad de HD crea imágenes con detalles más finos y mayor coherencia en toda la imagen.

imagesResponseFormat

Formato en el que se devuelven las imágenes generadas.

Descripción: formato en el que se devuelven las imágenes generadas.

Type: string

Default: url

Nombre de enumeración: ImagesResponseFormat

Enum Values:

Value Description
url Dirección URL que proporciona acceso temporal para descargar las imágenes generadas.
b64_json Las imágenes generadas se devuelven como cadena codificada en base64.

imageSize

Tamaño de las imágenes generadas.

Descripción: tamaño de las imágenes generadas.

Type: string

Default: 1024x1024

Nombre de enumeración: Tamaño

Enum Values:

Value Description
1792x1024 El tamaño deseado de la imagen generada es de 1792 x 1024 píxeles.
1024x1792 El tamaño deseado de la imagen generada es de 1024 x 1792 píxeles.
1024x1024 El tamaño deseado de la imagen generada es de 1024 x 1024 píxeles.

imageStyle

Estilo de las imágenes generadas.

Descripción: estilo de las imágenes generadas.

Type: string

Default: vivid

Nombre de enumeración: Estilo

Enum Values:

Value Description
vivid Vívidas crea imágenes que son hiper-realistas y dramáticas.
natural Natural crea imágenes que son más naturales y menos hiper-realistas.

imageGenerationsRequest

Name Type Description Required Default
prompt string Descripción de texto de las imágenes deseadas. La longitud máxima es de 4000 caracteres. Yes
n integer Número de imágenes que se van a generar. No 1
size imageSize Tamaño de las imágenes generadas. No 1024x1024
response_format imagesResponseFormat Formato en el que se devuelven las imágenes generadas. No url
user string Identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos. No
quality imageQuality Calidad de la imagen que se generará. No standard
style imageStyle Estilo de las imágenes generadas. No vivid

generateImagesResponse

Name Type Description Required Default
created integer Marca de tiempo de unix cuando se creó la operación. Yes
data array Datos de resultado de la operación, si se ejecuta correctamente Yes

imageResult

La dirección URL de la imagen o la imagen codificada si se ejecuta correctamente y, de lo contrario, se produce un error.

Name Type Description Required Default
url string Dirección URL de la imagen. No
b64_json string Imagen codificada en base64 No
content_filter_results dalleContentFilterResults Información sobre los resultados del filtrado de contenido. No
revised_prompt string Mensaje que se usó para generar la imagen, si se ha producido alguna revisión en el símbolo del sistema. No
prompt_filter_results dalleFilterResults Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. No

Completions extensions

Las extensiones de finalización no forman parte de la versión más reciente de disponibilidad general de la especificación de inferencia del plano de datos de OpenAI Azure.

Chatmessage

El objeto de mensaje de chat no forma parte de la versión más reciente de disponibilidad general del Azure especificación de inferencia del plano de datos de OpenAI.

Texto a voz (versión preliminar)

Actualmente no forma parte de la versión más reciente Azure openAI ga de la especificación de inferencia del plano de datos de OpenAI de Azure. Consulte la versión más reciente de preview para esta funcionalidad.

Next steps

Obtenga información sobre modelos y ajuste preciso con la API REST. Obtenga más información sobre los modelos underlying que potencian Azure OpenAI.