Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En este artículo se proporcionan detalles sobre los puntos de conexión de la API REST de inferencia para Azure OpenAI.
API specs
La administración e interacción con Azure modelos y recursos de OpenAI se divide en tres superficies de API principales:
- Control plane
- Plano de datos: creación
- Plano de datos: inferencia
Cada superficie o especificación de API encapsula un conjunto diferente de Azure funcionalidades de OpenAI. Cada API tiene su propio conjunto único de versiones preliminares y estables o disponibles con carácter general (GA). Las versiones preliminares tienden actualmente a seguir una cadencia mensual.
Important
Ahora hay una nueva API de inferencia en versión preliminar. Obtenga más información en nuestra guía del ciclo de vida de la API.
| API | Versión preliminar más reciente | Última versión de disponibilidad general | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | La API del plano de control se usa para operaciones como la creación de recursos, la implementación de modelos y otras tareas de administración de recursos de nivel superior. El plano de control también rige lo que es posible hacer con funcionalidades como Azure Resource Manager, Bicep, Terraform y CLI de Azure. |
| Data plane | v1 preview |
v1 |
Spec files | La API del plano de datos controla las operaciones de inferencia y creación. |
Authentication
Azure OpenAI proporciona dos métodos para la autenticación. Puede usar claves de API o Microsoft Entra ID.
Autenticación de clave de API: para este tipo de autenticación, todas las solicitudes de API deben incluir la clave de API en el
api-keyencabezado HTTP. En el inicio rápido se proporcionan instrucciones sobre cómo realizar llamadas con este tipo de autenticación.Microsoft Entra ID autenticación: puede autenticar una llamada API mediante un token de Microsoft Entra. Los tokens de autenticación se incluyen en una solicitud como
Authorizationencabezado. El token proporcionado debe ir precedido porBearer, por ejemploBearer YOUR_AUTH_TOKEN. Puede leer nuestra guía paso a paso sobre authenticating con Microsoft Entra ID.
Control de versiones de la API REST
Las API de servicio se versionan mediante el api-version parámetro de consulta. Todas las versiones siguen la estructura de fechas YYYY-MM-DD. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferencia del plano de datos
El resto del artículo trata la versión de disponibilidad general de la especificación de inferencia del plano de datos de OpenAI de Azure, 2024-10-21.
Si busca documentación sobre la versión preliminar más reciente de la API, consulte la API de inferencia del plano de datos en versión preliminar más reciente.
Completions
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Crea una finalización para el símbolo del sistema, los parámetros y el modelo elegido proporcionados.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Identificador de implementación del modelo que se implementó. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string o array | Los avisos para generar finalizaciones, codificadas como una cadena, una matriz de cadenas, una matriz de tokens o una matriz de matrices de tokens. Tenga en cuenta que <|endoftext|> es el separador de documentos que ve el modelo durante el entrenamiento, por lo que si no se especifica un mensaje, el modelo generará como si fuera el principio de un nuevo documento. |
Yes | |
| best_of | integer | Genera best_of finalizaciones del lado servidor y devuelve el "mejor" (el que tiene la mayor probabilidad de registro por token). Los resultados no se pueden transmitir.Cuando se usa con n, controla el número de finalizaciones candidatas y best_of especifica cuántos devolver n deben ser mayores que best_ofn .Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Use cuidadosamente y asegúrese de que tiene una configuración razonable para max_tokens y stop. |
No | 1 |
| echo | boolean | Vuelva a enviar el mensaje además de la finalización. |
No | False |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que el modelo repita la misma línea textualmente. |
No | 0 |
| logit_bias | object | Modifique la probabilidad de que aparezcan los tokens especificados en la finalización. Acepta un objeto JSON que asigna tokens (especificados por su identificador de token en el tokenizador GPT) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará por modelo, pero los valores entre -1 y 1 deben disminuir o aumentar la probabilidad de selección; los valores como -100 o 100 deben dar lugar a una prohibición o selección exclusiva del token correspondiente. Por ejemplo, puede pasar {"50256": -100} para evitar que se genere el <token |endoftext|> . |
No | None |
| logprobs | integer | Incluya las probabilidades de registro en los logprobs tokens de salida más probables, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devolverá una lista de los cinco tokens más probables. La API siempre devolverá el logprob del token muestreado, por lo que puede haber elementos logprobs+1 en la respuesta.El valor máximo de logprobs es 5. |
No | None |
| max_tokens | integer | Número máximo de tokens que se pueden generar en la finalización. El recuento de tokens del símbolo del sistema más max_tokens no puede superar la longitud del contexto del modelo. |
No | 16 |
| n | integer | Cuántas finalizaciones se van a generar para cada solicitud. Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Use cuidadosamente y asegúrese de que tiene una configuración razonable para max_tokens y stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que el modelo hable sobre nuevos temas. |
No | 0 |
| seed | integer | Si se especifica, nuestro sistema hará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con los mismos seed parámetros y deben devolver el mismo resultado.No se garantiza el determinismo y debe hacer referencia al system_fingerprint parámetro de respuesta para supervisar los cambios en el back-end. |
No | |
| stop | string o array | Hasta cuatro secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención. |
No | |
| stream | boolean | Indica si se va a devolver el progreso parcial. Si se establece, los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, con la secuencia terminada por un data: [DONE] mensaje. |
No | False |
| suffix | string | Sufijo que viene después de completar el texto insertado. Este parámetro solo se admite para gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | 1 |
| top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | 1 |
| user | string | Identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos. |
No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse | Representa una respuesta de finalización de la API. Nota: los objetos de respuesta transmitidos y no transmitidos comparten la misma forma (a diferencia del punto de conexión de chat). |
Código de estado: valor predeterminado
Descripción: Servicio no disponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crea una finalización para el símbolo del sistema, los parámetros y el modelo elegido proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respuestas: Código de estado: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Embeddings
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Obtenga una representación vectorial de una entrada determinada que los modelos y algoritmos de aprendizaje automático pueden consumir fácilmente.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string o array | Texto de entrada para insertar, codificado como una cadena o matriz de tokens. Para insertar varias entradas en una sola solicitud, pase una matriz de cadenas o matriz de matrices de tokens. La entrada no debe superar el número máximo de tokens de entrada para el modelo (8192 tokens para text-embedding-ada-002), no puede ser una cadena vacía y cualquier matriz debe tener 2048 dimensiones o menos. |
Yes | |
| user | string | Un identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos. | No | |
| input_type | string | tipo de entrada de búsqueda de inserción que se va a usar | No | |
| encoding_format | string | Formato en el que se devuelven las incrustaciones. Puede ser float o base64. El valor predeterminado es float. |
No | |
| dimensions | integer | Número de dimensiones que deben tener las incrustaciones de salida resultantes. Solo se admite en text-embedding-3 modelos posteriores y posteriores. |
No |
Responses
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| object | string | Yes | ||
| model | string | Yes | ||
| data | array | Yes | ||
| usage | object | Yes |
Propiedades de uso
prompt_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| prompt_tokens | integer |
total_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| total_tokens | integer |
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Devuelve las instituciones de un mensaje determinado.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Respuestas: Código de estado: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chat completions
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Crea una finalización para el mensaje de chat.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Identificador de implementación del modelo que se implementó. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | 1 |
| top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | 1 |
| stream | boolean | Si se establece, se enviarán diferencias de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, con la secuencia terminada por un data: [DONE] mensaje. |
No | False |
| stop | string o array | Hasta cuatro secuencias en las que la API dejará de generar más tokens. |
No | |
| max_tokens | integer | Número máximo de tokens que se pueden generar en la finalización del chat. La longitud total de los tokens de entrada y los tokens generados está limitado por la longitud de contexto del modelo. |
No | |
| max_completion_tokens | integer | Límite superior para el número de tokens que se pueden generar para una finalización, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que el modelo hable sobre nuevos temas. |
No | 0 |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que el modelo repita la misma línea textualmente. |
No | 0 |
| logit_bias | object | Modifique la probabilidad de que aparezcan los tokens especificados en la finalización. Acepta un objeto JSON que asigna tokens (especificados por su identificador de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará por modelo, pero los valores entre -1 y 1 deben disminuir o aumentar la probabilidad de selección; los valores como -100 o 100 deben dar lugar a una prohibición o selección exclusiva del token correspondiente. |
No | None |
| user | string | Identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos. |
No | |
| messages | array | Una lista de mensajes que componen la conversación hasta ahora. | Yes | |
| data_sources | array | Las entradas de configuración de Azure extensiones de chat de OpenAI que las usan. Esta especificación adicional solo es compatible con Azure OpenAI. |
No | |
| logprobs | boolean | Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en de contentmessage. |
No | False |
| top_logprobs | integer | Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada.
logprobs debe establecerse en true si se usa este parámetro. |
No | |
| n | integer | Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada. Tenga en cuenta que se le cobrará en función del número de tokens generados en todas las opciones. Mantenga n el modo de 1 minimizar los costos. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Indica si se debe habilitar la llamada a funciones paralelas durante el uso de la herramienta. | No | True |
| response_format | ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema | Objeto que especifica el formato que debe generar el modelo. Compatible con GPT-4o, GPT-4o mini, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo más recientes que gpt-3.5-turbo-1106.Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincidirá con el esquema JSON proporcionado.Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo es JSON válido.Importante: al usar el modo JSON, también debe indicar al modelo que genere JSON usted mismo a través de un mensaje del sistema o del usuario. Sin esto, el modelo puede generar una secuencia de espacios en blanco no deseada hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta también que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o que la conversación superó la longitud máxima del contexto. |
No | |
| seed | integer | Esta característica está en beta. Si se especifica, nuestro sistema hará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con los mismos seed parámetros y deben devolver el mismo resultado.No se garantiza el determinismo y debe hacer referencia al system_fingerprint parámetro de respuesta para supervisar los cambios en el back-end. |
No | |
| tools | array | Una lista de herramientas a las que puede llamar el modelo. Actualmente, solo se admiten funciones como una herramienta. Úselo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. Se admite un máximo de 128 funciones. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Controla la herramienta a la que llama el modelo (si existe).
none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas.
required significa que el modelo debe llamar a una o varias herramientas. Especificar una herramienta determinada a través de {"type": "function", "function": {"name": "my_function"}} fuerza al modelo a llamar a esa herramienta.
none es el valor predeterminado cuando no hay herramientas presentes.
auto es el valor predeterminado si las herramientas están presentes. |
No | |
| function_call | string o chatCompletionFunctionCallOption | En desuso en favor de tool_choice.Controla la función (si existe) a la que llama el modelo. none significa que el modelo no llamará a una función y, en su lugar, generará un mensaje.auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función.Especificar una función determinada a través de {"name": "my_function"} obliga al modelo a llamar a esa función.none es el valor predeterminado cuando no hay funciones presentes.
auto es el valor predeterminado si hay funciones presentes. |
No | |
| functions | array | En desuso en favor de tools.Una lista de funciones para las que el modelo puede generar entradas JSON. |
No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createChatCompletionResponse o createChatCompletionStreamResponse |
Código de estado: valor predeterminado
Descripción: Servicio no disponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crea una finalización para el símbolo del sistema, los parámetros y el modelo elegido proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea una finalización basada en Azure Datos de búsqueda y identidad administrada asignada por el sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea una finalización basada en Azure datos vectoriales de búsqueda, el mensaje del asistente anterior y la identidad administrada asignada por el usuario.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea una finalización para el Azure Cosmos DB proporcionado.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcripciones: crear
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Transcribe el audio en el idioma de entrada.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Id. de implementación del modelo de voz en texto. Para obtener información sobre los modelos admitidos, consulte [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Objeto de archivo de audio que se va a transcribir. | Yes | |
| prompt | string | Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe coincidir con el idioma de audio. | No | |
| response_format | audioResponseFormat | Define el formato de la salida. | No | |
| temperature | number | Temperatura de muestreo, entre 0 y 1. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. | No | 0 |
| language | string | Idioma del audio de entrada. Proporcionar el idioma de entrada en formato ISO-639-1 mejorará la precisión y la latencia. | No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResponse o audioVerboseResponse | |
| text/plain | string | Texto transcrito en el formato de salida (cuando response_format era uno de texto, vtt o srt). |
Examples
Example
Obtiene texto transcrito y metadatos asociados de los datos de audio hablados proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Respuestas: Código de estado: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtiene texto transcrito y metadatos asociados de los datos de audio hablados proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traducciones: crear
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Transcribe y traduce el audio de entrada en texto en inglés.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Id. de implementación del modelo de susurro que se implementó. Para obtener información sobre los modelos admitidos, consulte [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Archivo de audio que se va a traducir. | Yes | |
| prompt | string | Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe estar en inglés. | No | |
| response_format | audioResponseFormat | Define el formato de la salida. | No | |
| temperature | number | Temperatura de muestreo, entre 0 y 1. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. | No | 0 |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResponse o audioVerboseResponse | |
| text/plain | string | Texto transcrito en el formato de salida (cuando response_format era uno de texto, vtt o srt). |
Examples
Example
Obtiene el texto transcrito en inglés y los metadatos asociados de los datos de audio hablados proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtiene el texto transcrito en inglés y los metadatos asociados de los datos de audio hablados proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Image generation
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Genera un lote de imágenes a partir de un título de texto en una implementación de modelo dall-e determinada.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Se admiten Azure puntos de conexión de OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de OpenAI de Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Identificador de implementación del modelo dall-e que se implementó. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Proporcione Azure clave de API de OpenAI aquí |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string | Descripción de texto de las imágenes deseadas. La longitud máxima es de 4000 caracteres. | Yes | |
| n | integer | Número de imágenes que se van a generar. | No | 1 |
| size | imageSize | Tamaño de las imágenes generadas. | No | 1024x1024 |
| response_format | imagesResponseFormat | Formato en el que se devuelven las imágenes generadas. | No | url |
| user | string | Identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos. | No | |
| quality | imageQuality | Calidad de la imagen que se generará. | No | standard |
| style | imageStyle | Estilo de las imágenes generadas. | No | vivid |
Responses
Código de estado: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Código de estado: valor predeterminado
Descripción: se produjo un error.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Crea imágenes dadas una solicitud.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respuestas: Código de estado: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| param | string | No | ||
| type | string | No | ||
| inner_error | innerError | Error interno con detalles adicionales. | No |
innerError
Error interno con detalles adicionales.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Códigos de error para el objeto de error interno. | No | |
| content_filter_results | contentFilterPromptResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. | No |
innerErrorCode
Códigos de error para el objeto de error interno.
Descripción: códigos de error para el objeto de error interno.
Type: string
Default:
Nombre de enumeración: InnerErrorCode
Enum Values:
| Value | Description |
|---|---|
| ResponsibleAIPolicyViolation | El mensaje infringía una de las reglas de filtro de contenido. |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| param | string | No | ||
| type | string | No | ||
| inner_error | dalleInnerError | Error interno con detalles adicionales. | No |
dalleInnerError
Error interno con detalles adicionales.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Códigos de error para el objeto de error interno. | No | |
| content_filter_results | dalleFilterResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. | No | |
| revised_prompt | string | Mensaje que se usó para generar la imagen, si se ha producido alguna revisión en el símbolo del sistema. | No |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| detected | boolean | No |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No |
Propiedades de la cita
URL
| Name | Type | Description | Default |
|---|---|---|---|
| URL | string |
license
| Name | Type | Description | Default |
|---|---|---|---|
| license | string |
contentFilterResultsBase
Información sobre los resultados del filtrado de contenido.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No |
contentFilterPromptResults
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No | ||
| jailbreak | contentFilterDetectedResult | No |
contentFilterChoiceResults
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre texto de terceros y palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No |
promptFilterResult
Resultados de filtrado de contenido para una sola solicitud en la solicitud.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt_index | integer | No | ||
| content_filter_results | contentFilterPromptResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. | No |
promptFilterResults
Resultados de filtrado de contenido para cero o más avisos en la solicitud. En una solicitud de streaming, los resultados de diferentes mensajes pueden llegar a momentos diferentes o en diferentes pedidos.
No hay propiedades definidas para este componente.
dalleContentFilterResults
Información sobre los resultados del filtrado de contenido.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No |
dalleFilterResults
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | 1 |
| top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | 1 |
| stream | boolean | Si se establece, se enviarán diferencias de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, con la secuencia terminada por un data: [DONE] mensaje. |
No | False |
| stop | string o array | Hasta cuatro secuencias en las que la API dejará de generar más tokens. | No | |
| max_tokens | integer | Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4096 : tokens de solicitud). Este valor ahora está en desuso en favor de y no es compatible con los modelos de max_completion_tokensla serie o1. |
No | 4096 |
| max_completion_tokens | integer | Límite superior para el número de tokens que se pueden generar para una finalización, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que el modelo hable sobre nuevos temas. | No | 0 |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que el modelo repita la misma línea textualmente. | No | 0 |
| logit_bias | object | Modifique la probabilidad de que aparezcan los tokens especificados en la finalización. Acepta un objeto json que asigna tokens (especificados por su identificador de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará por modelo, pero los valores entre -1 y 1 deben disminuir o aumentar la probabilidad de selección; los valores como -100 o 100 deben dar lugar a una prohibición o selección exclusiva del token correspondiente. | No | |
| user | string | Un identificador único que representa al usuario final, que puede ayudar a Azure OpenAI a supervisar y detectar abusos. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string o array | Los avisos para generar finalizaciones, codificadas como una cadena, una matriz de cadenas, una matriz de tokens o una matriz de matrices de tokens. Tenga en cuenta que <|endoftext|> es el separador de documentos que ve el modelo durante el entrenamiento, por lo que si no se especifica un mensaje, el modelo generará como si fuera el principio de un nuevo documento. |
Yes | |
| best_of | integer | Genera best_of finalizaciones del lado servidor y devuelve el "mejor" (el que tiene la mayor probabilidad de registro por token). Los resultados no se pueden transmitir.Cuando se usa con n, controla el número de finalizaciones candidatas y best_of especifica cuántos devolver n deben ser mayores que best_ofn .Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Use cuidadosamente y asegúrese de que tiene una configuración razonable para max_tokens y stop. |
No | 1 |
| echo | boolean | Vuelva a enviar el mensaje además de la finalización. |
No | False |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que el modelo repita la misma línea textualmente. |
No | 0 |
| logit_bias | object | Modifique la probabilidad de que aparezcan los tokens especificados en la finalización. Acepta un objeto JSON que asigna tokens (especificados por su identificador de token en el tokenizador GPT) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará por modelo, pero los valores entre -1 y 1 deben disminuir o aumentar la probabilidad de selección; los valores como -100 o 100 deben dar lugar a una prohibición o selección exclusiva del token correspondiente. Por ejemplo, puede pasar {"50256": -100} para evitar que se genere el <token |endoftext|> . |
No | None |
| logprobs | integer | Incluya las probabilidades de registro en los logprobs tokens de salida más probables, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devolverá una lista de los cinco tokens más probables. La API siempre devolverá el logprob del token muestreado, por lo que puede haber elementos logprobs+1 en la respuesta.El valor máximo de logprobs es 5. |
No | None |
| max_tokens | integer | Número máximo de tokens que se pueden generar en la finalización. El recuento de tokens del símbolo del sistema más max_tokens no puede superar la longitud del contexto del modelo. |
No | 16 |
| n | integer | Cuántas finalizaciones se van a generar para cada solicitud. Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Use cuidadosamente y asegúrese de que tiene una configuración razonable para max_tokens y stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que el modelo hable sobre nuevos temas. |
No | 0 |
| seed | integer | Si se especifica, nuestro sistema hará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con los mismos seed parámetros y deben devolver el mismo resultado.No se garantiza el determinismo y debe hacer referencia al system_fingerprint parámetro de respuesta para supervisar los cambios en el back-end. |
No | |
| stop | string o array | Hasta cuatro secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención. |
No | |
| stream | boolean | Indica si se va a devolver el progreso parcial. Si se establece, los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, con la secuencia terminada por un data: [DONE] mensaje. |
No | False |
| suffix | string | Sufijo que viene después de completar el texto insertado. Este parámetro solo se admite para gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | 1 |
| top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | 1 |
| user | string | Identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos. |
No |
createCompletionResponse
Representa una respuesta de finalización de la API. Nota: los objetos de respuesta transmitidos y no transmitidos comparten la misma forma (a diferencia del punto de conexión de chat).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Identificador único para la finalización. | Yes | |
| choices | array | La lista de opciones de finalización que el modelo generó para el mensaje de entrada. | Yes | |
| created | integer | Marca de tiempo de Unix (en segundos) de cuando se creó la finalización. | Yes | |
| model | string | Modelo usado para la finalización. | Yes | |
| prompt_filter_results | promptFilterResults | Resultados de filtrado de contenido para cero o más avisos en la solicitud. En una solicitud de streaming, los resultados de diferentes mensajes pueden llegar a momentos diferentes o en diferentes pedidos. | No | |
| system_fingerprint | string | Esta huella digital representa la configuración de back-end con la que se ejecuta el modelo. Se puede usar junto con el seed parámetro de solicitud para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo. |
No | |
| object | enum | Tipo de objeto, que siempre es "text_completion" Valores posibles: text_completion |
Yes | |
| usage | completionUsage | Estadísticas de uso de la solicitud de finalización. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Temperatura de muestreo que se va a usar, entre 0 y 2. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Por lo general, se recomienda modificar esto o top_p no ambos. |
No | 1 |
| top_p | number | Alternativa al muestreo con temperatura, denominado muestreo de núcleo, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Por lo tanto, 0,1 significa que solo se tienen en cuenta los 10 tokens que componen la masa de probabilidad superior 10%. Por lo general, se recomienda modificar esto o temperature no ambos. |
No | 1 |
| stream | boolean | Si se establece, se enviarán diferencias de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, con la secuencia terminada por un data: [DONE] mensaje. |
No | False |
| stop | string o array | Hasta cuatro secuencias en las que la API dejará de generar más tokens. |
No | |
| max_tokens | integer | Número máximo de tokens que se pueden generar en la finalización del chat. La longitud total de los tokens de entrada y los tokens generados está limitado por la longitud de contexto del modelo. |
No | |
| max_completion_tokens | integer | Límite superior para el número de tokens que se pueden generar para una finalización, incluidos los tokens de salida visibles y los tokens de razonamiento. | No | |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que el modelo hable sobre nuevos temas. |
No | 0 |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que el modelo repita la misma línea textualmente. |
No | 0 |
| logit_bias | object | Modifique la probabilidad de que aparezcan los tokens especificados en la finalización. Acepta un objeto JSON que asigna tokens (especificados por su identificador de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará por modelo, pero los valores entre -1 y 1 deben disminuir o aumentar la probabilidad de selección; los valores como -100 o 100 deben dar lugar a una prohibición o selección exclusiva del token correspondiente. |
No | None |
| user | string | Identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos. |
No | |
| messages | array | Una lista de mensajes que componen la conversación hasta ahora. | Yes | |
| data_sources | array | Las entradas de configuración de Azure extensiones de chat de OpenAI que las usan. Esta especificación adicional solo es compatible con Azure OpenAI. |
No | |
| logprobs | boolean | Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en de contentmessage. |
No | False |
| top_logprobs | integer | Entero entre 0 y 20 que especifica el número de tokens más probables que se van a devolver en cada posición del token, cada uno con una probabilidad de registro asociada.
logprobs debe establecerse en true si se usa este parámetro. |
No | |
| n | integer | Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada. Tenga en cuenta que se le cobrará en función del número de tokens generados en todas las opciones. Mantenga n el modo de 1 minimizar los costos. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Indica si se debe habilitar la llamada a funciones paralelas durante el uso de la herramienta. | No | True |
| response_format | ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema | Objeto que especifica el formato que debe generar el modelo. Compatible con GPT-4o, GPT-4o mini, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo más recientes que gpt-3.5-turbo-1106.Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincidirá con el esquema JSON proporcionado.Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo es JSON válido.Importante: al usar el modo JSON, también debe indicar al modelo que genere JSON usted mismo a través de un mensaje del sistema o del usuario. Sin esto, el modelo puede generar una secuencia de espacios en blanco no deseada hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta también que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o que la conversación superó la longitud máxima del contexto. |
No | |
| seed | integer | Esta característica está en beta. Si se especifica, nuestro sistema hará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con los mismos seed parámetros y deben devolver el mismo resultado.No se garantiza el determinismo y debe hacer referencia al system_fingerprint parámetro de respuesta para supervisar los cambios en el back-end. |
No | |
| tools | array | Una lista de herramientas a las que puede llamar el modelo. Actualmente, solo se admiten funciones como una herramienta. Úselo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. Se admite un máximo de 128 funciones. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Controla la herramienta a la que llama el modelo (si existe).
none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas.
required significa que el modelo debe llamar a una o varias herramientas. Especificar una herramienta determinada a través de {"type": "function", "function": {"name": "my_function"}} fuerza al modelo a llamar a esa herramienta.
none es el valor predeterminado cuando no hay herramientas presentes.
auto es el valor predeterminado si las herramientas están presentes. |
No | |
| function_call | string o chatCompletionFunctionCallOption | En desuso en favor de tool_choice.Controla la función (si existe) a la que llama el modelo. none significa que el modelo no llamará a una función y, en su lugar, generará un mensaje.auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función.Especificar una función determinada a través de {"name": "my_function"} obliga al modelo a llamar a esa función.none es el valor predeterminado cuando no hay funciones presentes.
auto es el valor predeterminado si hay funciones presentes. |
No | |
| functions | array | En desuso en favor de tools.Una lista de funciones para las que el modelo puede generar entradas JSON. |
No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descripción de lo que hace la función, que usa el modelo para elegir cuándo y cómo llamar a la función. | No | |
| name | string | Nombre de la función a la que se va a llamar. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64. | Yes | |
| parameters | FunctionParameters | Los parámetros que aceptan las funciones, que se describen como un objeto de esquema JSON.
Consulte la guía para obtener ejemplos y la referencia de esquema JSON para obtener documentación sobre el formato. La omisión parameters define una función con una lista de parámetros vacía. |
No |
chatCompletionFunctionCallOption
Especificar una función determinada a través de {"name": "my_function"} obliga al modelo a llamar a esa función.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nombre de la función a la que se va a llamar. | Yes |
chatCompletionRequestMessage
Este componente puede ser uno de los siguientes:
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string o array | Contenido del mensaje del sistema. | Yes | |
| role | enum | Rol del autor de mensajes, en este caso system.Valores posibles: sistema |
Yes | |
| name | string | Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre los participantes del mismo rol. | No |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string o array | Contenido del mensaje de usuario. |
Yes | |
| role | enum | Rol del autor de mensajes, en este caso user.Valores posibles: usuario |
Yes | |
| name | string | Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre los participantes del mismo rol. | No |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string o array | Contenido del mensaje del asistente. Obligatorio a menos tool_calls que se especifique o function_call . |
No | |
| refusal | string | Mensaje de denegación por parte del asistente. | No | |
| role | enum | Rol del autor de mensajes, en este caso assistant.Valores posibles: asistente |
Yes | |
| name | string | Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre los participantes del mismo rol. | No | |
| tool_calls | chatCompletionMessageToolCalls | La herramienta llama a las llamadas generadas por el modelo, como las llamadas de función. | No | |
| function_call | object | En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo. |
No |
Propiedades de function_call
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Argumentos para llamar a la función con, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Nombre de la función a la que se va a llamar. |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Rol del autor de mensajes, en este caso tool.Valores posibles: herramienta |
Yes | |
| content | string o array | Contenido del mensaje de la herramienta. | Yes | |
| tool_call_id | string | Llamada a la herramienta a la que responde este mensaje. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Rol del autor de mensajes, en este caso function.Valores posibles: función |
Yes | |
| content | string | Contenido del mensaje de función. | Yes | |
| name | string | Nombre de la función a la que se va a llamar. | Yes |
chatCompletionRequestSystemMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestUserMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestAssistantMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestToolMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo del elemento de contenido. Valores posibles: texto |
Yes | |
| text | string | Contenido de texto. | Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo del elemento de contenido. Valores posibles: image_url |
Yes | |
| image_url | object | Yes |
Propiedades de image_url
url
| Name | Type | Description | Default |
|---|---|---|---|
| url | string | Una dirección URL de la imagen o los datos de imagen codificados en base64. |
detail
| Name | Type | Description | Default |
|---|---|---|---|
| detail | string | Especifica el nivel de detalle de la imagen. Obtenga más información en la guía visión. | auto |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo del elemento de contenido. Valores posibles: denegación |
Yes | |
| refusal | string | Mensaje de denegación generado por el modelo. | Yes |
azureChatExtensionConfiguration
Representación de los datos de configuración para una sola extensión de chat de OpenAI Azure. Esto lo usará una solicitud de finalizaciones de chat que debe usar Azure extensiones de chat de OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Representación de los datos de configuración para una sola extensión de chat de OpenAI Azure. Esto lo usará un chat. solicitudes de finalización que deben usar Azure extensiones de chat de OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI. |
Yes |
azureChatExtensionType
Representación de los datos de configuración para una sola extensión de chat de OpenAI Azure. Esto lo usará una solicitud de finalizaciones de chat que debe usar Azure extensiones de chat de OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.
Description: representación de los datos de configuración para una sola extensión de chat de OpenAI de Azure. Esto lo usará una solicitud de finalizaciones de chat que debe usar Azure extensiones de chat de OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.
Type: string
Default:
Nombre de enumeración: AzureChatExtensionType
Enum Values:
| Value | Description |
|---|---|
| azure_search | Representa el uso de Azure Search como una extensión de chat de OpenAI Azure. |
| azure_cosmos_db | Representa el uso de Azure Cosmos DB como una extensión de chat de OpenAI Azure. |
azureSearchChatExtensionConfiguration
Representación específica de opciones configurables para Azure Search cuando se usa como una extensión de chat de OpenAI Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Representación de los datos de configuración para una sola extensión de chat de OpenAI Azure. Esto lo usará un chat. solicitudes de finalización que deben usar Azure extensiones de chat de OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI. |
Yes | |
| parameters | azureSearchChatExtensionParameters | Parámetros de Azure Search cuando se usa como una extensión de chat de OpenAI Azure. | No |
azureSearchChatExtensionParameters
Parámetros de Azure Search cuando se usa como una extensión de chat de OpenAI Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiKeyAuthenticationOptions o onYourDataSystemAssignedManagedIdentityAuthenticationOptions o onYourDataUserAssignedManagedIdentityAuthenticationOptions | Yes | ||
| top_n_documents | integer | El número superior configurado de documentos que se van a presentar para la consulta configurada. | No | |
| in_scope | boolean | Si las consultas deben restringirse al uso de datos indexados. | No | |
| strictness | integer | La estricta configuración del filtrado de relevancia de búsqueda. Cuanto mayor sea la estricta, mayor será la precisión, pero una menor recuperación de la respuesta. | No | |
| role_information | string | Proporcione las instrucciones del modelo sobre cómo debe comportarse y cualquier contexto al que debe hacer referencia al generar una respuesta. Puede describir la personalidad del asistente y indicarle cómo dar formato a las respuestas. Hay un límite de 100 tokens para él y cuenta con respecto al límite total de tokens. | No | |
| endpoint | string | Ruta de acceso del punto de conexión absoluto para el recurso de búsqueda de Azure que se va a usar. | Yes | |
| index_name | string | Nombre del índice que se va a usar como disponible en el recurso Azure Search al que se hace referencia. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Opciones opcionales para controlar cómo se procesan los campos al usar un recurso de búsqueda de Azure configurado. | No | |
| query_type | azureSearchQueryType | Tipo de Azure consulta de recuperación de búsqueda que se debe ejecutar al usarlo como una extensión de chat de OpenAI Azure. | No | |
| semantic_configuration | string | Configuración semántica adicional para la consulta. | No | |
| filter | string | Search filter. | No | |
| embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource | No |
azureSearchIndexFieldMappingOptions
Opciones opcionales para controlar cómo se procesan los campos al usar un recurso de búsqueda de Azure configurado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| title_field | string | Nombre del campo de índice que se va a usar como título. | No | |
| url_field | string | Nombre del campo de índice que se va a usar como dirección URL. | No | |
| filepath_field | string | Nombre del campo de índice que se va a usar como ruta de acceso de archivo. | No | |
| content_fields | array | Nombres de campos de índice que se deben tratar como contenido. | No | |
| content_fields_separator | string | Patrón separador que deben usar los campos de contenido. | No | |
| vector_fields | array | Nombres de campos que representan datos vectoriales. | No |
azureSearchQueryType
Tipo de Azure consulta de recuperación de búsqueda que se debe ejecutar al usarlo como una extensión de chat de OpenAI Azure.
Description: tipo de consulta de recuperación de Azure Search que se debe ejecutar al usarlo como una extensión de chat de OpenAI de Azure.
Type: string
Default:
Nombre de enumeración: AzureSearchQueryType
Enum Values:
| Value | Description |
|---|---|
| simple | Representa el analizador de consultas simple predeterminado. |
| semantic | Representa el analizador de consultas semánticas para el modelado semántico avanzado. |
| vector | Representa la búsqueda de vectores sobre los datos calculados. |
| vector_simple_hybrid | Representa una combinación de la estrategia de consulta simple con datos vectoriales. |
| vector_semantic_hybrid | Representa una combinación de búsqueda semántica y consulta de datos vectoriales. |
azureCosmosDBChatExtensionConfiguration
Representación específica de opciones configurables para Azure Cosmos DB cuando se usa como una extensión de chat de OpenAI Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Representación de los datos de configuración para una sola extensión de chat de OpenAI Azure. Esto lo usará un chat. solicitudes de finalización que deben usar Azure extensiones de chat de OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI. |
Yes | |
| parameters | azureCosmosDBChatExtensionParameters | Parámetros que se usarán al configurar Azure OpenAI en las extensiones de chat de datos al usar Azure Cosmos DB para MongoDB vCore. |
No |
azureCosmosDBChatExtensionParameters
Parámetros que se usarán al configurar Azure OpenAI en las extensiones de chat de datos al usar Azure Cosmos DB para núcleo virtual de MongoDB.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataConnectionStringAuthenticationOptions | Las opciones de autenticación de Azure OpenAI en los datos al usar un cadena de conexión. | Yes | |
| top_n_documents | integer | El número superior configurado de documentos que se van a presentar para la consulta configurada. | No | |
| in_scope | boolean | Si las consultas deben restringirse al uso de datos indexados. | No | |
| strictness | integer | La estricta configuración del filtrado de relevancia de búsqueda. Cuanto mayor sea la estricta, mayor será la precisión, pero una menor recuperación de la respuesta. | No | |
| role_information | string | Proporcione las instrucciones del modelo sobre cómo debe comportarse y cualquier contexto al que debe hacer referencia al generar una respuesta. Puede describir la personalidad del asistente y indicarle cómo dar formato a las respuestas. Hay un límite de 100 tokens para él y cuenta con respecto al límite total de tokens. | No | |
| database_name | string | Nombre de base de datos de núcleo virtual de MongoDB que se va a usar con Azure Cosmos DB. | Yes | |
| container_name | string | Nombre del contenedor de recursos de Azure Cosmos DB. | Yes | |
| index_name | string | Nombre del índice de núcleo virtual de MongoDB que se va a usar con Azure Cosmos DB. | Yes | |
| fields_mapping | azureCosmosDBFieldMappingOptions | Opciones opcionales para controlar cómo se procesan los campos al usar un recurso de Azure Cosmos DB configurado. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource | Yes |
azureCosmosDBFieldMappingOptions
Opciones opcionales para controlar cómo se procesan los campos al usar un recurso de Azure Cosmos DB configurado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| title_field | string | Nombre del campo de índice que se va a usar como título. | No | |
| url_field | string | Nombre del campo de índice que se va a usar como dirección URL. | No | |
| filepath_field | string | Nombre del campo de índice que se va a usar como ruta de acceso de archivo. | No | |
| content_fields | array | Nombres de campos de índice que se deben tratar como contenido. | Yes | |
| content_fields_separator | string | Patrón separador que deben usar los campos de contenido. | No | |
| vector_fields | array | Nombres de campos que representan datos vectoriales. | Yes |
onYourDataAuthenticationOptions
Las opciones de autenticación de Azure OpenAI en los datos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Los tipos de autenticación compatibles con Azure OpenAI en los datos. | Yes |
onYourDataAuthenticationType
Los tipos de autenticación compatibles con Azure OpenAI en los datos.
Description: los tipos de autenticación admitidos con Azure OpenAI en los datos.
Type: string
Default:
Nombre de enumeración: OnYourDataAuthenticationType
Enum Values:
| Value | Description |
|---|---|
| api_key | Autenticación a través de la clave de API. |
| connection_string | Autenticación a través de cadena de conexión. |
| system_assigned_managed_identity | Autenticación a través de la identidad administrada asignada por el sistema. |
| user_assigned_managed_identity | Autenticación a través de la identidad administrada asignada por el usuario. |
onYourDataApiKeyAuthenticationOptions
Las opciones de autenticación para Azure OpenAI en los datos al usar una clave de API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Los tipos de autenticación compatibles con Azure OpenAI en los datos. | Yes | |
| key | string | Clave de API que se va a usar para la autenticación. | No |
onYourDataConnectionStringAuthenticationOptions
Las opciones de autenticación de Azure OpenAI en los datos al usar un cadena de conexión.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Los tipos de autenticación compatibles con Azure OpenAI en los datos. | Yes | |
| connection_string | string | El cadena de conexión que se va a usar para la autenticación. | No |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Las opciones de autenticación para Azure OpenAI en los datos cuando se usa una identidad administrada asignada por el sistema.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Los tipos de autenticación compatibles con Azure OpenAI en los datos. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Las opciones de autenticación para Azure OpenAI en los datos cuando se usa una identidad administrada asignada por el usuario.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Los tipos de autenticación compatibles con Azure OpenAI en los datos. | Yes | |
| managed_identity_resource_id | string | Identificador de recurso de la identidad administrada asignada por el usuario que se va a usar para la autenticación. | No |
onYourDataVectorizationSource
Representación abstracta de un origen de vectorización para Azure OpenAI en los datos con búsqueda vectorial.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Representa los orígenes disponibles Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con vector search. |
Yes |
onYourDataVectorizationSourceType
Representa los orígenes disponibles Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con la búsqueda vectorial.
Description: representa los orígenes disponibles Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con
vector search.
Type: string
Default:
Nombre de enumeración: OnYourDataVectorizationSourceType
Enum Values:
| Value | Description |
|---|---|
| endpoint | Representa la vectorización realizada por llamadas de servicio público a un modelo de inserción de OpenAI Azure. |
| deployment_name | Representa un nombre de implementación del modelo de Ada que se va a usar. Esta implementación del modelo debe estar en el mismo recurso de Azure OpenAI, pero En los datos, usará esta implementación del modelo a través de una llamada interna en lugar de una pública, lo que permite el vector. buscar incluso en redes privadas. |
onYourDataDeploymentNameVectorizationSource
Los detalles de un origen de vectorización, usado por Azure OpenAI en los datos al aplicar la búsqueda de vectores, que se basa en un nombre de implementación de modelos de inserción interno en el mismo recurso de OpenAI Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Representa los orígenes disponibles Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con vector search. |
Yes | |
| deployment_name | string | Especifica el nombre de la implementación del modelo que se va a usar para la vectorización. Esta implementación del modelo debe estar en el mismo Azure recurso de OpenAI, pero En los datos usará esta implementación de modelo a través de una llamada interna en lugar de una pública, lo que permite la búsqueda de vectores incluso en redes privadas. | No |
onYourDataEndpointVectorizationSource
Los detalles de un origen de vectorización, usado por Azure OpenAI en los datos al aplicar la búsqueda de vectores, que se basa en una llamada de punto de conexión de OpenAI pública Azure para incrustaciones.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Representa los orígenes disponibles Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con vector search. |
Yes | |
| authentication | onYourDataApiKeyAuthenticationOptions | Las opciones de autenticación para Azure OpenAI en los datos al usar una clave de API. | No | |
| endpoint | string | Especifica el punto de conexión que se va a usar para la vectorización. Este punto de conexión debe estar en el mismo Azure recurso de OpenAI, pero En los datos usará este punto de conexión a través de una llamada interna en lugar de una pública, lo que permite la búsqueda de vectores incluso en redes privadas. | No |
azureChatExtensionsMessageContext
Representación de la información de contexto adicional disponible cuando Azure extensiones de chat de OpenAI participan en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando se usa una solicitud openAI de Azure configurada para usar una extensión coincidente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citations | array | Resultado de la recuperación del origen de datos, que se usa para generar el mensaje del asistente en la respuesta. | No | |
| intent | string | La intención detectada del historial de chat, que se usa para pasar al siguiente turno para llevar el contexto. | No |
citation
información de cita para un mensaje de respuesta de finalizaciones de chat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenido de la cita. | Yes | |
| title | string | Título de la cita. | No | |
| url | string | Dirección URL de la cita. | No | |
| filepath | string | Ruta de acceso del archivo de la cita. | No | |
| chunk_id | string | Identificador del fragmento de la cita. | No |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Identificador de la llamada a la herramienta. | Yes | |
| type | toolCallType | Tipo de la llamada a la herramienta, en este caso function. |
Yes | |
| function | object | Función a la que llamó el modelo. | Yes |
Propiedades de la función
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Nombre de la función a la que se va a llamar. |
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Argumentos para llamar a la función con, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función. |
toolCallType
Tipo de la llamada a la herramienta, en este caso function.
Descripción: el tipo de la llamada a la herramienta, en este caso function.
Type: string
Default:
Nombre de enumeración: ToolCallType
Enum Values:
| Value | Description |
|---|---|
| function | El tipo de llamada de herramienta es function. |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_call_id | string | Llamada a la herramienta a la que responde este mensaje. | No | |
| content | string | Contenido del mensaje. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Rol del autor de mensajes, en este caso function.Valores posibles: función |
No | |
| name | string | Contenido del mensaje. | No | |
| content | string | Contenido del mensaje. | No |
createChatCompletionResponse
Representa una respuesta de finalización de chat devuelta por el modelo, en función de la entrada proporcionada.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Identificador único para la finalización del chat. | Yes | |
| prompt_filter_results | promptFilterResults | Resultados de filtrado de contenido para cero o más avisos en la solicitud. En una solicitud de streaming, los resultados de diferentes mensajes pueden llegar a momentos diferentes o en diferentes pedidos. | No | |
| choices | array | Una lista de opciones de finalización de chat. Puede ser más de uno si n es mayor que 1. |
Yes | |
| created | integer | Marca de tiempo de Unix (en segundos) de cuando se creó la finalización del chat. | Yes | |
| model | string | Modelo usado para la finalización del chat. | Yes | |
| system_fingerprint | string | Esta huella digital representa la configuración de back-end con la que se ejecuta el modelo. Se puede usar junto con el seed parámetro de solicitud para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo. |
No | |
| object | enum | Tipo de objeto, que siempre chat.completiones .Valores posibles: chat.completion |
Yes | |
| usage | completionUsage | Estadísticas de uso de la solicitud de finalización. | No |
createChatCompletionStreamResponse
Representa un fragmento transmitido de una respuesta de finalización de chat devuelta por el modelo, en función de la entrada proporcionada.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Identificador único para la finalización del chat. Cada fragmento tiene el mismo identificador. | Yes | |
| choices | array | Una lista de opciones de finalización de chat. Puede contener más de un elemento si n es mayor que 1. |
Yes | |
| created | integer | Marca de tiempo de Unix (en segundos) de cuando se creó la finalización del chat. Cada fragmento tiene la misma marca de tiempo. | Yes | |
| model | string | Modelo para generar la finalización. | Yes | |
| system_fingerprint | string | Esta huella digital representa la configuración de back-end con la que se ejecuta el modelo. Se puede usar junto con el seed parámetro de solicitud para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo. |
No | |
| object | enum | Tipo de objeto, que siempre chat.completion.chunkes .Valores posibles: chat.completion.chunk |
Yes |
chatCompletionStreamResponseDelta
Una diferencia de finalización del chat generada por respuestas del modelo transmitido.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenido del mensaje de fragmento. | No | |
| function_call | object | En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo. |
No | |
| tool_calls | array | No | ||
| role | enum | Rol del autor de este mensaje. Valores posibles: system, user, assistant, tool |
No | |
| refusal | string | Mensaje de denegación generado por el modelo. | No |
Propiedades de function_call
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Argumentos para llamar a la función con, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Nombre de la función a la que se va a llamar. |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Yes | ||
| id | string | Identificador de la llamada a la herramienta. | No | |
| type | enum | Tipo de la herramienta. Actualmente, solo function se admite.Valores posibles: función |
No | |
| function | object | No |
Propiedades de la función
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Nombre de la función a la que se va a llamar. |
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Argumentos para llamar a la función con, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función. |
chatCompletionStreamOptions
Opciones para la respuesta de streaming. Establézcalo solo cuando establezca stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Si se establece, se transmitirá un fragmento adicional antes del data: [DONE] mensaje. El usage campo de este fragmento muestra las estadísticas de uso del token para toda la solicitud y el choices campo siempre será una matriz vacía. Todos los demás fragmentos también incluirán un usage campo, pero con un valor NULL. |
No |
chatCompletionChoiceLogProbs
Registre la información de probabilidad para la elección.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Lista de tokens de contenido de mensajes con información de probabilidad de registro. | Yes | |
| refusal | array | Lista de tokens de denegación de mensajes con información de probabilidad de registro. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| token | string | The token. | Yes | |
| logprob | number | Probabilidad de registro de este token. | Yes | |
| bytes | array | Lista de enteros que representan la representación de bytes UTF-8 del token. Resulta útil en instancias en las que los caracteres se representan mediante varios tokens y sus representaciones de bytes deben combinarse para generar la representación de texto correcta. Puede ser null si no hay ninguna representación de bytes para el token. |
Yes | |
| top_logprobs | array | Lista de los tokens más probables y su probabilidad de registro, en esta posición del token. En raras ocasiones, puede haber menos del número de devueltos solicitados top_logprobs . |
Yes |
chatCompletionResponseMessage
Mensaje de finalización de chat generado por el modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | chatCompletionResponseMessageRole | Rol del autor del mensaje de respuesta. | Yes | |
| refusal | string | Mensaje de denegación generado por el modelo. | Yes | |
| content | string | Contenido del mensaje. | Yes | |
| tool_calls | array | La herramienta llama a las llamadas generadas por el modelo, como las llamadas de función. | No | |
| function_call | chatCompletionFunctionCall | En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo. |
No | |
| context | azureChatExtensionsMessageContext | Representación de la información de contexto adicional disponible cuando Azure extensiones de chat de OpenAI están implicadas en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando con un Azure solicitud openAI configurada para usar una extensión coincidente. |
No |
chatCompletionResponseMessageRole
Rol del autor del mensaje de respuesta.
Descripción: rol del autor del mensaje de respuesta.
Type: string
Default:
Enum Values:
- assistant
chatCompletionToolChoiceOption
Controla la herramienta a la que llama el modelo (si existe).
none significa que el modelo no llamará a ninguna herramienta y, en su lugar, generará un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o varias herramientas.
required significa que el modelo debe llamar a una o varias herramientas. Especificar una herramienta determinada a través de {"type": "function", "function": {"name": "my_function"}} fuerza al modelo a llamar a esa herramienta.
none es el valor predeterminado cuando no hay herramientas presentes.
auto es el valor predeterminado si las herramientas están presentes.
Este componente puede ser uno de los siguientes:
chatCompletionNamedToolChoice
Especifica una herramienta que debe usar el modelo. Use para forzar que el modelo llame a una función específica.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo de la herramienta. Actualmente, solo function se admite.Valores posibles: función |
Yes | |
| function | object | Yes |
Propiedades de la función
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Nombre de la función a la que se va a llamar. |
ParallelToolCalls
Indica si se debe habilitar la llamada a funciones paralelas durante el uso de la herramienta.
No hay propiedades definidas para este componente.
chatCompletionMessageToolCalls
La herramienta llama a las llamadas generadas por el modelo, como las llamadas de función.
No hay propiedades definidas para este componente.
chatCompletionFunctionCall
En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nombre de la función a la que se va a llamar. | Yes | |
| arguments | string | Argumentos para llamar a la función con, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede generar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función. | Yes |
completionUsage
Estadísticas de uso de la solicitud de finalización.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt_tokens | integer | Número de tokens en el símbolo del sistema. | Yes | |
| completion_tokens | integer | Número de tokens en la finalización generada. | Yes | |
| total_tokens | integer | Número total de tokens usados en la solicitud (solicitud + finalización). | Yes | |
| completion_tokens_details | object | Desglose de los tokens usados en una finalización. | No |
Propiedades de completion_tokens_details
reasoning_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| reasoning_tokens | integer | Tokens generados por el modelo para el razonamiento. |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo de la herramienta. Actualmente, solo function se admite.Valores posibles: función |
Yes | |
| function | FunctionObject | Yes |
FunctionParameters
Los parámetros que aceptan las funciones, que se describen como un objeto de esquema JSON. Consulte la guía para obtener ejemplos y la referencia de esquema JSON para obtener documentación sobre el formato.
La omisión parameters define una función con una lista de parámetros vacía.
No hay propiedades definidas para este componente.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Descripción de lo que hace la función, que usa el modelo para elegir cuándo y cómo llamar a la función. | No | |
| name | string | Nombre de la función a la que se va a llamar. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64. | Yes | |
| parameters | FunctionParameters | Los parámetros que aceptan las funciones, que se describen como un objeto de esquema JSON.
Consulte la guía para obtener ejemplos y la referencia de esquema JSON para obtener documentación sobre el formato. La omisión parameters define una función con una lista de parámetros vacía. |
No | |
| strict | boolean | Indica si se debe habilitar el cumplimiento estricto del esquema al generar la llamada a la función. Si se establece en true, el modelo seguirá el esquema exacto definido en el parameters campo . Solo se admite un subconjunto de esquema JSON cuando strict es true. |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo de formato de respuesta que se está definiendo: textValores posibles: texto |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo de formato de respuesta que se está definiendo: json_objectValores posibles: json_object |
Yes |
ResponseFormatJsonSchemaSchema
Esquema para el formato de respuesta, descrito como un objeto de esquema JSON.
No hay propiedades definidas para este componente.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Tipo de formato de respuesta que se está definiendo: json_schemaValores posibles: json_schema |
Yes | |
| json_schema | object | Yes |
Propiedades de json_schema
description
| Name | Type | Description | Default |
|---|---|---|---|
| description | string | Descripción del formato de respuesta que usa el modelo para determinar cómo responder en el formato. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Nombre del formato de respuesta. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64. |
schema
| Name | Type | Description | Default |
|---|---|---|---|
| schema | ResponseFormatJsonSchemaSchema | Esquema para el formato de respuesta, descrito como un objeto de esquema JSON. |
strict
| Name | Type | Description | Default |
|---|---|---|---|
| strict | boolean | Indica si se debe habilitar la adhesión estricta al esquema al generar la salida. Si se establece en true, el modelo siempre seguirá el esquema exacto definido en el schema campo. Solo se admite un subconjunto de esquema JSON cuando strict es true. |
False |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | No | ||
| finish_reason | string | No |
createTranslationRequest
Translation request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Archivo de audio que se va a traducir. | Yes | |
| prompt | string | Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe estar en inglés. | No | |
| response_format | audioResponseFormat | Define el formato de la salida. | No | |
| temperature | number | Temperatura de muestreo, entre 0 y 1. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. | No | 0 |
audioResponse
Respuesta de traducción o transcripción cuando response_format era json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Texto traducido o transcrito. | Yes |
audioVerboseResponse
Respuesta de traducción o transcripción cuando se verbose_json response_format
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Texto traducido o transcrito. | Yes | |
| task | string | Tipo de tarea de audio. | No | |
| language | string | Language. | No | |
| duration | number | Duration. | No | |
| segments | array | No |
audioResponseFormat
Define el formato de la salida.
Descripción: define el formato de la salida.
Type: string
Default:
Enum Values:
- json
- text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Transcription request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Objeto de archivo de audio que se va a transcribir. | Yes | |
| prompt | string | Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe coincidir con el idioma de audio. | No | |
| response_format | audioResponseFormat | Define el formato de la salida. | No | |
| temperature | number | Temperatura de muestreo, entre 0 y 1. Los valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que los valores más bajos como 0,2 harán que sea más centrado y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. | No | 0 |
| language | string | Idioma del audio de entrada. Proporcionar el idioma de entrada en formato ISO-639-1 mejorará la precisión y la latencia. | No |
audioSegment
Segmento de transcripción o traducción.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | integer | Segment identifier. | No | |
| seek | number | Desplazamiento del segmento. | No | |
| start | number | Desplazamiento de inicio del segmento. | No | |
| end | number | Desplazamiento final del segmento. | No | |
| text | string | Segment text. | No | |
| tokens | array | Tokens del texto. | No | |
| temperature | number | Temperature. | No | |
| avg_logprob | number | Probabilidad media del registro. | No | |
| compression_ratio | number | Compression ratio. | No | |
| no_speech_prob | number | Probabilidad de no speech. |
No |
imageQuality
Calidad de la imagen que se generará.
Descripción: calidad de la imagen que se generará.
Type: string
Default: standard
Nombre de enumeración: Calidad
Enum Values:
| Value | Description |
|---|---|
| standard | La calidad estándar crea imágenes con calidad estándar. |
| hd | La calidad de HD crea imágenes con detalles más finos y mayor coherencia en toda la imagen. |
imagesResponseFormat
Formato en el que se devuelven las imágenes generadas.
Descripción: formato en el que se devuelven las imágenes generadas.
Type: string
Default: url
Nombre de enumeración: ImagesResponseFormat
Enum Values:
| Value | Description |
|---|---|
| url | Dirección URL que proporciona acceso temporal para descargar las imágenes generadas. |
| b64_json | Las imágenes generadas se devuelven como cadena codificada en base64. |
imageSize
Tamaño de las imágenes generadas.
Descripción: tamaño de las imágenes generadas.
Type: string
Default: 1024x1024
Nombre de enumeración: Tamaño
Enum Values:
| Value | Description |
|---|---|
| 1792x1024 | El tamaño deseado de la imagen generada es de 1792 x 1024 píxeles. |
| 1024x1792 | El tamaño deseado de la imagen generada es de 1024 x 1792 píxeles. |
| 1024x1024 | El tamaño deseado de la imagen generada es de 1024 x 1024 píxeles. |
imageStyle
Estilo de las imágenes generadas.
Descripción: estilo de las imágenes generadas.
Type: string
Default: vivid
Nombre de enumeración: Estilo
Enum Values:
| Value | Description |
|---|---|
| vivid | Vívidas crea imágenes que son hiper-realistas y dramáticas. |
| natural | Natural crea imágenes que son más naturales y menos hiper-realistas. |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string | Descripción de texto de las imágenes deseadas. La longitud máxima es de 4000 caracteres. | Yes | |
| n | integer | Número de imágenes que se van a generar. | No | 1 |
| size | imageSize | Tamaño de las imágenes generadas. | No | 1024x1024 |
| response_format | imagesResponseFormat | Formato en el que se devuelven las imágenes generadas. | No | url |
| user | string | Identificador único que representa al usuario final, que puede ayudar a supervisar y detectar abusos. | No | |
| quality | imageQuality | Calidad de la imagen que se generará. | No | standard |
| style | imageStyle | Estilo de las imágenes generadas. | No | vivid |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Marca de tiempo de unix cuando se creó la operación. | Yes | |
| data | array | Datos de resultado de la operación, si se ejecuta correctamente | Yes |
imageResult
La dirección URL de la imagen o la imagen codificada si se ejecuta correctamente y, de lo contrario, se produce un error.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| url | string | Dirección URL de la imagen. | No | |
| b64_json | string | Imagen codificada en base64 | No | |
| content_filter_results | dalleContentFilterResults | Información sobre los resultados del filtrado de contenido. | No | |
| revised_prompt | string | Mensaje que se usó para generar la imagen, si se ha producido alguna revisión en el símbolo del sistema. | No | |
| prompt_filter_results | dalleFilterResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. | No |
Completions extensions
Las extensiones de finalización no forman parte de la versión más reciente de disponibilidad general de la especificación de inferencia del plano de datos de OpenAI Azure.
Chatmessage
El objeto de mensaje de chat no forma parte de la versión más reciente de disponibilidad general del Azure especificación de inferencia del plano de datos de OpenAI.
Texto a voz (versión preliminar)
Actualmente no forma parte de la versión más reciente Azure openAI ga de la especificación de inferencia del plano de datos de OpenAI de Azure. Consulte la versión más reciente de preview para esta funcionalidad.
Next steps
Obtenga información sobre modelos y ajuste preciso con la API REST. Obtenga más información sobre los modelos underlying que potencian Azure OpenAI.