Compartir a través de


Referencia de la API REST de los servicios de Azure OpenAI

En este artículo se proporcionan detalles sobre los puntos de conexión de la API de REST de inferencia de Azure OpenAI.

Especificaciones de API

La administración e interacción con los modelos y recursos de Azure OpenAI se divide en tres superficies de API principales:

  • Plano de control
  • Plano de datos: creación
  • Plano de datos: inferencia

Cada superficie o especificación de API encapsula un conjunto diferente de funcionalidades de Azure OpenAI. Cada API tiene su propio conjunto único de versiones preliminares y estables o disponibles con carácter general (GA). Las versiones preliminares tienden actualmente a seguir una cadencia mensual.

API Versión preliminar más reciente Última versión de disponibilidad general Especificaciones Descripción
Plano de control 2024-04-01-preview 2023-05-01 Archivos de especificación Azure OpenAI comparte un plano de control común con todos los demás Servicios de Azure AI. La API del plano de control se usa para cosas como crear recursos de Azure OpenAI, implementación de modelos y otras tareas de administración de recursos de nivel superior. El plano de control también rige lo que es posible hacer con funcionalidades como Azure Resource Manager, Bicep, Terraform y la CLI de Azure.
Plano de datos: creación 2024-05-01-preview 2024-06-01 Archivos de especificación La API de creación del plano de datos controla el ajuste preciso, la carga de archivos, los trabajos de ingesta y determinadas consultas de nivel de modelo
Plano de datos: inferencia 2024-05-01-preview 2024-06-01 Archivos de especificación La API de inferencia del plano de datos proporciona las funcionalidades o puntos de conexión de inferencia para características como finalizaciones, finalizaciones de chat, incrustaciones, voz o susurro, en los datos, Dall-e, asistentes, etc.

Autenticación

Azure OpenAI proporciona dos métodos de autenticación. Puede usar claves de API o Microsoft Entra ID.

  • Autenticación con claves de API:: para este tipo de autenticación, todas las solicitudes de API deben incluir la clave de API en el encabezado HTTP api-key. El inicio rápido proporciona una guía sobre cómo realizar llamadas con este tipo de autenticación.

  • Autenticación de Microsoft Entra ID: puede autenticar una llamada a la API usando un token de Microsoft Entra. Los tokens de autenticación se incluyen en una solicitud como encabezado Authorization. El token proporcionado debe ir precedido de Bearer, por ejemplo Bearer YOUR_AUTH_TOKEN. Puede leer nuestra guía sobre la autenticación con Microsoft Entra ID.

Control de versiones de la API REST

Las API de servicio se versionan mediante el parámetro de consulta api-version. Todas las versiones siguen la estructura de fecha AAAA-MM-DD. Por ejemplo:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-06-01

Inferencia del plano de datos

El resto del artículo cubre la última versión de GA de la especificación de inferencia del plano de datos de Azure OpenAI, 2024-06-01.

Si busca documentación sobre la última versión preliminar de la API, consulte la última versión preliminar de la API de inferencia de planos de datos

Finalizaciones

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01

Crea una finalización para la indicación proporcionada, los parámetros y el modelo elegido.

Parámetros de identificador URI

Nombre En Obligatorio Type Descripción
endpoint path string
dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{nombre-del-recurso }.openai.azure.com
deployment-id path string Identificador de implementación del modelo que se implementó.
api-version consulta string Versión de API

Encabezado de solicitud

Nombre Obligatorio Type Descripción
api-key True string Proporcione la clave de API de Azure OpenAI aquí

Cuerpo de la solicitud

Content-Type: application/json

Nombre Escribir Descripción Necesario Valor predeterminado
símbolo del sistema cadena o matriz Las indicaciones para generar los complementos, codificadas como una cadena, una matriz de cadenas.
Tenga en cuenta que <|endoftext|> es el separador de documentos que el modelo ve durante el entrenamiento, por lo que si no se especifica una indicación el modelo generará como si fuera desde el principio de un nuevo documento. El tamaño máximo permitido de la lista de cadenas es 2048.
No
max_tokens integer El número de tokens de su pregunta más max_tokens no puede exceder la longitud del contexto del modelo. La mayoría de los modelos tienen una longitud de contexto de 2048 tokens (excepto los modelos más recientes, que admiten 4096). Tiene un mínimo de 0. No 16
temperatura number Qué temperatura de muestreo usar. Los valores más altos significan que el modelo tomará más riesgos. Pruebe con 0,9 para las aplicaciones más creativas, y con 0 (muestreo máximo de argumentos) para las que tengan una respuesta bien definida.
Por lo general, recomendamos modificar esto o top_p, pero no ambos.
No 1
top_p number Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o la temperatura, pero no ambos.
No 1
logit_bias objeto El valor predeterminado es NULL. Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto json que asigna tokens (especificados por su ID de token en el tokenizador GPT) a un valor de sesgo asociado de -100 a 100. Puede usar esta herramienta tokenizadora (que funciona tanto para GPT-2 como para GPT-3) para convertir texto en ID de token. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente. Como ejemplo, puede pasar {"50256": -100} para evitar que se genere el token <|endoftext|>. No
usuario string Un identificador único que representa al usuario final, que podría ayudar a supervisar y detectar abusos No
n integer Cuántas terminaciones generar para cada pregunta. Mínimo de 1 y máximo de 128 permitidos.
Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Use cuidadosamente y asegúrese de que tiene una configuración razonable para max_tokens y detener.
No 1
flujo boolean Si se transmite el progreso parcial. Si se establece, los tokens se enviarán como eventos enviados por el servidor solo de datos a medida que estén disponibles, con el flujo terminado por un mensaje de datos: [DONE]. No False
logprobs integer Incluya las probabilidades de registro en los tokens más probables de logprobs, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devolverá una lista de los 5 tokens más probables. La API siempre devolverá el logprob del token muestreado, por lo que puede haber hasta logprobs+1 elementos en la respuesta.
Mínimo de 0 y máximo de 5 permitidos.
No Ninguno
sufijo string Sufijo que viene después de completar el texto insertado. No
echo boolean Devuelve la solicitud además de la finalización No False
stop cadena o matriz Hasta 4 secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención. No
completion_config string No
presence_penalty number Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas. No 0
frequency_penalty number Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente. No 0
best_of integer Genera las finalizaciones best_of del lado del servidor y devuelve la "mejor" (definida como la que tiene la mayor probabilidad de registro por token). Los resultados no se pueden transmitir.
Cuando se usa con n, best_of controla el número de finalizaciones candidatas y n especifica cuántas devolver: best_of debe ser mayor que n.
Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Use cuidadosamente y asegúrese de que tiene una configuración razonable para max_tokens y detener. El valor máximo es 128.
No

Respuestas

Nombre Escribir Descripción Necesario Valor predeterminado
id string
objeto string
created integer
modelo string
prompt_filter_results promptFilterResults Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes. No
opciones array
usada objeto No

Propiedades de uso

completion_tokens

Nombre Escribir Descripción Valor predeterminado
completion_tokens number
prompt_tokens number
total_tokens number

Código de estado: 200

Descripción: OK

Content-Type Tipo Descripción
application/json objeto

Código de estado: valor predeterminado

Descripción: servicio no disponible

Content-Type Tipo Descripción
application/json errorResponse

Ejemplos

Ejemplo

Crea una finalización para la indicación proporcionada, los parámetros y el modelo elegido.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Inserciones

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01

Obtenga una representación vectorial de una entrada dada que pueda ser consumida fácilmente por modelos y algoritmos de aprendizaje automático.

Parámetros de identificador URI

Nombre En Obligatorio Type Descripción
endpoint path string
dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{nombre-del-recurso }.openai.azure.com
deployment-id path cadena
api-version consulta string Versión de API

Encabezado de solicitud

Nombre Obligatorio Type Descripción
api-key True string Proporcione la clave de API de Azure OpenAI aquí

Cuerpo de la solicitud

Content-Type: application/json

Nombre Escribir Descripción Necesario Valor predeterminado
input cadena o matriz Texto de entrada para el que se desea obtener incrustaciones. Para obtener incrustaciones para varias entradas en una sola solicitud, pase una matriz de cadenas. Cada entrada no debe superar los 2048 tokens de longitud.
A menos que se trate de un código para insertar, le sugerimos que sustituya las nuevas líneas (\n) en su entrada por un solo espacio, ya que hemos observado resultados inferiores cuando las nuevas líneas están presentes.
usuario string Un identificador único que representa al usuario final, que podría ayudar a supervisar y detectar abusos. No
input-type string tipo de entrada de búsqueda de inserción que se va a usar No
encoding_format string Formato en el que se devuelven las incrustaciones. Puede ser float o base64. Su valor predeterminado es float. No
dimensiones integer Número de dimensiones que deben tener las incrustaciones de salida resultantes. Solo se admite en modelos text-embedding-3 y versiones posteriores. No

Respuestas

Nombre Escribir Descripción Necesario Valor predeterminado
objeto string
modelo string
data array
usada objeto

Propiedades de uso

prompt_tokens

Nombre Escribir Descripción Valor predeterminado
prompt_tokens integer

total_tokens

Nombre Escribir Descripción Valor predeterminado
total_tokens integer

Código de estado: 200

Descripción: OK

Content-Type Tipo Descripción
application/json objeto

Ejemplos

Ejemplo

Devuelve las incrustaciones de un mensaje determinado.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01

{
 "input": [
  "this is a test"
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Finalizaciones de chat

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

Crea una finalización para el mensaje de chat

Parámetros de identificador URI

Nombre En Obligatorio Type Descripción
endpoint path string
dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{nombre-del-recurso }.openai.azure.com
deployment-id path string Identificador de implementación del modelo que se implementó.
api-version consulta string Versión de API

Encabezado de solicitud

Nombre Obligatorio Type Descripción
api-key True string Proporcione la clave de API de Azure OpenAI aquí

Cuerpo de la solicitud

Content-Type: application/json

Nombre Escribir Descripción Necesario Valor predeterminado
temperatura number Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
Por lo general, recomendamos modificar esto o top_p, pero no ambos.
No 1
top_p number Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o temperature, pero no ambos.
No 1
flujo boolean Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, el flujo terminará con un mensaje de data: [DONE]. No False
stop cadena o matriz Hasta 4 secuencias en las que la API dejará de generar más tokens. No
max_tokens integer Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4096: tokens de aviso). No 4096
presence_penalty number Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas. No 0
frequency_penalty number Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente. No 0
logit_bias objeto Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto JSON que asignará tokens (especificados por su id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente. No
usuario string Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos. No
messages array Una lista de mensajes que componen la conversación hasta ahora. Código de Python de ejemplo. No
data_sources array Las entradas de configuración de las extensiones de chat de Azure OpenAI que las usan.
Esta especificación adicional solo es compatible con Azure OpenAI.
No
n integer Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada. No 1
seed integer Si se especifica, el sistema realizará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con un mismo seed y parámetros deben devolver el mismo resultado. No se garantiza el determinismo y debe hacer referencia al parámetro de respuesta system_fingerprint para supervisar los cambios en el back-end. No 0
logprobs boolean Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en el content de message. Esta opción no está disponible actualmente en el gpt-4-vision-preview modelo. No False
top_logprobs integer Entero entre 0 y 5 que especifica el número de tokens más probables que se devolverán en cada posición del token, cada uno con una probabilidad de registro asociada. logprobs debe establecerse en true si se usa este parámetro. No
response_format objeto Objeto que especifica el formato que debe generar el modelo. Se usa para habilitar el modo JSON. No
tools array Una lista de herramientas a las que puede llamar el modelo. Actualmente, solo se admiten funciones como una herramienta. Úselo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. No
tool_choice chatCompletionToolChoiceOption Controla la función (si existe) a la que llama el modelo. none significa que el modelo no llamará a una función y, en su lugar, generará un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función. Especificar una función determinada a través de {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa función. No
functions array En desuso en favor de tools. Una lista de funciones para las que el modelo puede generar entradas JSON. No
function_call cadena u objeto En desuso en favor de tool_choice. Controla cómo responde el modelo a las llamadas de función. "none" significa que el modelo no llama a una función y responde al usuario final. "auto" significa que el modelo puede elegir entre un usuario final o una llamada a una función. Especificar una función determinada a través de {"name":\ "my_function"} obliga al modelo a llamar a esa función. "none" es el valor predeterminado cuando no hay funciones presentes. "auto" es el valor predeterminado si las funciones están presentes. No

Propiedades de response_format

Tipo

Nombre Escribir Descripción Valor predeterminado
type chatCompletionResponseFormat Si se establece en json_object se habilita el modo JSON. Esto garantiza que el mensaje que genera el modelo es JSON válido. text

Respuestas

Código de estado: 200

Descripción: OK

Content-Type Tipo Descripción
application/json createChatCompletionResponse

Código de estado: valor predeterminado

Descripción: servicio no disponible

Content-Type Tipo Descripción
application/json errorResponse

Ejemplos

Ejemplo

Crea una finalización para la indicación proporcionada, los parámetros y el modelo elegido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "system",
   "content": "you're a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Ejemplo

Crea una finalización basada en los datos de Azure Search y la identidad administrada asignada por el sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Ejemplo

Crea una finalización basada en los datos vectoriales de Azure Search, el mensaje del asistente anterior y la identidad administrada asignada por el usuario.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "you're an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Ejemplo

Crea una finalización para la instancia de Azure Cosmos DB proporcionada.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respuestas: Código de estado: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcripciones

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

Transcribe el audio en el idioma de entrada.

Parámetros de identificador URI

Nombre En Obligatorio Type Descripción
endpoint path string
dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{nombre-del-recurso }.openai.azure.com
deployment-id path string Id. de implementación del modelo de susurro.
api-version consulta string Versión de API

Encabezado de solicitud

Nombre Obligatorio Type Descripción
api-key True string Proporcione la clave de API de Azure OpenAI aquí

Cuerpo de la solicitud

Tipo de contenido: varias partes/datos de formulario

Nombre Escribir Descripción Necesario Valor predeterminado
file string Objeto de archivo de audio que se va a transcribir.
símbolo del sistema string Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe coincidir con el idioma del audio. No
response_format audioResponseFormat Define el formato de la salida. No
temperatura number Temperatura de muestreo, entre 0 y 1. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. No 0
language string El idioma del audio de entrada. Suministrar el idioma de entrada en formato ISO-639-1 mejorará la precisión y la latencia. No

Respuestas

Código de estado: 200

Descripción: OK

Content-Type Tipo Descripción
application/json audioResponse o audioVerboseResponse
text/plain string Texto transcrito en el formato de salida (cuando response_format era texto, vtt o srt).

Ejemplos

Ejemplo

Obtiene texto transcrito y metadatos asociados de los datos de audio hablados proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

Respuestas: Código de estado: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Ejemplo

Obtiene texto transcrito y metadatos asociados de los datos de audio hablados proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respuestas: Código de estado: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traducciones

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

Transcribe y traduce el audio de entrada en texto en inglés.

Parámetros de identificador URI

Nombre En Obligatorio Type Descripción
endpoint path string
dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{nombre-del-recurso }.openai.azure.com
deployment-id path string Id. de implementación del modelo de susurro que se implementó.
api-version consulta string Versión de API

Encabezado de solicitud

Nombre Obligatorio Type Descripción
api-key True string Proporcione la clave de API de Azure OpenAI aquí

Cuerpo de la solicitud

Tipo de contenido: varias partes/datos de formulario

Nombre Escribir Descripción Necesario Valor predeterminado
file string Archivo de audio que se va a traducir.
símbolo del sistema string Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. La indicación debería ser en inglés. No
response_format audioResponseFormat Define el formato de la salida. No
temperatura number Temperatura de muestreo, entre 0 y 1. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. No 0

Respuestas

Código de estado: 200

Descripción: OK

Content-Type Tipo Descripción
application/json audioResponse o audioVerboseResponse
text/plain string Texto transcrito en el formato de salida (cuando response_format era texto, vtt o srt).

Ejemplos

Ejemplo

Obtiene el texto transcrito en inglés y los metadatos asociados a partir de los datos de audio hablado proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respuestas: Código de estado: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Ejemplo

Obtiene el texto transcrito en inglés y los metadatos asociados a partir de los datos de audio hablado proporcionados.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respuestas: Código de estado: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Imagen y generación

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01

Genera un lote de imágenes a partir de una descripción de texto en una determinada implementación de modelo DALLE

Parámetros de identificador URI

Nombre En Obligatorio Type Descripción
endpoint path string
dirección URL
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com. Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{nombre-del-recurso }.openai.azure.com
deployment-id path string Identificador de implementación del modelo de dall-e que se implementó.
api-version consulta string Versión de API

Encabezado de solicitud

Nombre Obligatorio Type Descripción
api-key True string Proporcione la clave de API de Azure OpenAI aquí

Cuerpo de la solicitud

Content-Type: application/json

Nombre Escribir Descripción Necesario Valor predeterminado
símbolo del sistema string Descripción de texto de las imágenes deseadas. La longitud máxima es de 4000 caracteres.
n integer Número de imágenes que se van a generar. No 1
size imageSize Tamaño de las imágenes generadas. No 1024x1024
response_format imagesResponseFormat Formato en el que se devuelven las imágenes generadas. No dirección url
usuario string Identificador único que representa al usuario final, lo que puede ayudar a supervisar y detectar abusos. No
datos imageQuality Calidad de la imagen que se generará. No Estándar
style imageStyle Estilo de las imágenes generadas. No vivid

Respuestas

Código de estado: 200

Descripción: Ok

Content-Type Tipo Descripción
application/json generateImagesResponse

Código de estado: valor predeterminado

Descripción: se produjo un error.

Content-Type Tipo Descripción
application/json dalleErrorResponse

Ejemplos

Ejemplo

Crea imágenes a partir de una indicación.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Respuestas: Código de estado: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Componentes

errorResponse

Nombre Escribir Descripción Necesario Valor predeterminado
error error No

errorBase

Nombre Escribir Descripción Necesario Valor predeterminado
code string No
message string No

Error

Nombre Escribir Descripción Necesario Valor predeterminado
param string No
type cadena No
inner_error innerError Error interno con detalles adicionales. No

innerError

Error interno con detalles adicionales.

Nombre Escribir Descripción Necesario Valor predeterminado
code innerErrorCode Códigos de error para el objeto de error interno. No
content_filter_results contentFilterPromptResults Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. No

innerErrorCode

Códigos de error para el objeto de error interno.

Descripción: códigos de error para el objeto de error interno.

Tipo: string

Valor predeterminado:

Nombre de enumeración: InnerErrorCode

Valores de enumeración:

Valor Descripción
ResponsibleAIPolicyViolation El mensaje infringía una de las reglas de filtro de contenido.

dalleErrorResponse

Nombre Escribir Descripción Necesario Valor predeterminado
error dalleError No

dalleError

Nombre Escribir Descripción Necesario Valor predeterminado
param string No
type cadena No
inner_error dalleInnerError Error interno con detalles adicionales. No

dalleInnerError

Error interno con detalles adicionales.

Nombre Escribir Descripción Necesario Valor predeterminado
code innerErrorCode Códigos de error para el objeto de error interno. No
content_filter_results dalleFilterResults Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. No
revised_prompt string La indicación que se utilizó para generar la imagen, si hubo alguna revisión de la indicación. No

contentFilterResultBase

Nombre Escribir Descripción Necesario Valor predeterminado
filtered boolean

contentFilterSeverityResult

Nombre Escribir Descripción Necesario Valor predeterminado
filtered boolean
severity string No

contentFilterDetectedResult

Nombre Escribir Descripción Necesario Valor predeterminado
filtered boolean
detectado boolean No

contentFilterDetectedWithCitationResult

Nombre Escribir Descripción Necesario Valor predeterminado
cita objeto No

Propiedades de la cita

URL

Nombre Escribir Descripción Valor predeterminado
Dirección URL string

Licencia

Nombre Escribir Descripción Valor predeterminado
license string

contentFilterResultsBase

Información sobre los resultados del filtrado de contenido.

Nombre Escribir Descripción Necesario Valor predeterminado
sexual contentFilterSeverityResult No
violencia contentFilterSeverityResult No
odio contentFilterSeverityResult No
autolesiones contentFilterSeverityResult No
palabras soeces contentFilterDetectedResult No
error errorBase No

contentFilterPromptResults

Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.

Nombre Escribir Descripción Necesario Valor predeterminado
sexual contentFilterSeverityResult No
violencia contentFilterSeverityResult No
odio contentFilterSeverityResult No
autolesiones contentFilterSeverityResult No
palabras soeces contentFilterDetectedResult No
error errorBase No
evasión de seguridad contentFilterDetectedResult No

contentFilterChoiceResults

Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre texto de terceros y palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.

Nombre Escribir Descripción Necesario Valor predeterminado
sexual contentFilterSeverityResult No
violencia contentFilterSeverityResult No
odio contentFilterSeverityResult No
autolesiones contentFilterSeverityResult No
palabras soeces contentFilterDetectedResult No
error errorBase No
protected_material_text contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No

promptFilterResult

Resultados del filtrado de contenido para una única indicación en la solicitud.

Nombre Escribir Descripción Necesario Valor predeterminado
prompt_index integer No
content_filter_results contentFilterPromptResults Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. No

promptFilterResults

Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes.

dalleContentFilterResults

Información sobre los resultados del filtrado de contenido.

Nombre Escribir Descripción Necesario Valor predeterminado
sexual contentFilterSeverityResult No
violencia contentFilterSeverityResult No
odio contentFilterSeverityResult No
autolesiones contentFilterSeverityResult No

dalleFilterResults

Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.

Nombre Escribir Descripción Necesario Valor predeterminado
sexual contentFilterSeverityResult No
violencia contentFilterSeverityResult No
odio contentFilterSeverityResult No
autolesiones contentFilterSeverityResult No
palabras soeces contentFilterDetectedResult No
evasión de seguridad contentFilterDetectedResult No

chatCompletionsRequestCommon

Nombre Escribir Descripción Necesario Valor predeterminado
temperatura number Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
Por lo general, recomendamos modificar esto o top_p, pero no ambos.
No 1
top_p number Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o temperature, pero no ambos.
No 1
flujo boolean Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, el flujo terminará con un mensaje de data: [DONE]. No False
stop cadena o matriz Hasta 4 secuencias en las que la API dejará de generar más tokens. No
max_tokens integer Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4096: tokens de aviso). No 4096
presence_penalty number Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas. No 0
frequency_penalty number Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente. No 0
logit_bias objeto Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto JSON que asignará tokens (especificados por su id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente. No
usuario string Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos. No

createChatCompletionRequest

Nombre Escribir Descripción Necesario Valor predeterminado
temperatura number Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
Por lo general, recomendamos modificar esto o top_p, pero no ambos.
No 1
top_p number Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o temperature, pero no ambos.
No 1
flujo boolean Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, el flujo terminará con un mensaje de data: [DONE]. No False
stop cadena o matriz Hasta 4 secuencias en las que la API dejará de generar más tokens. No
max_tokens integer Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4096: tokens de aviso). No 4096
presence_penalty number Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas. No 0
frequency_penalty number Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente. No 0
logit_bias objeto Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto JSON que asignará tokens (especificados por su id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente. No
usuario string Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos. No
messages array Una lista de mensajes que componen la conversación hasta ahora. Código de Python de ejemplo. No
data_sources array Las entradas de configuración de las extensiones de chat de Azure OpenAI que las usan.
Esta especificación adicional solo es compatible con Azure OpenAI.
No
n integer Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada. No 1
seed integer Si se especifica, el sistema realizará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con un mismo seed y parámetros deben devolver el mismo resultado. No se garantiza el determinismo y debe hacer referencia al parámetro de respuesta system_fingerprint para supervisar los cambios en el back-end. No 0
logprobs boolean Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en el content de message. Esta opción no está disponible actualmente en el gpt-4-vision-preview modelo. No False
top_logprobs integer Entero entre 0 y 5 que especifica el número de tokens más probables que se devolverán en cada posición del token, cada uno con una probabilidad de registro asociada. logprobs debe establecerse en true si se usa este parámetro. No
response_format objeto Objeto que especifica el formato que debe generar el modelo. Se usa para habilitar el modo JSON. No
tools array Una lista de herramientas a las que puede llamar el modelo. Actualmente, solo se admiten funciones como una herramienta. Úselo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. No
tool_choice chatCompletionToolChoiceOption Controla la función (si existe) a la que llama el modelo. none significa que el modelo no llamará a una función y, en su lugar, generará un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función. Especificar una función determinada a través de {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa función. No
functions array En desuso en favor de tools. Una lista de funciones para las que el modelo puede generar entradas JSON. No
function_call cadena u objeto En desuso en favor de tool_choice. Controla cómo responde el modelo a las llamadas de función. "none" significa que el modelo no llama a una función y responde al usuario final. "auto" significa que el modelo puede elegir entre un usuario final o una llamada a una función. Especificar una función determinada a través de {"name":\ "my_function"} obliga al modelo a llamar a esa función. "none" es el valor predeterminado cuando no hay funciones presentes. "auto" es el valor predeterminado si las funciones están presentes. No

Propiedades de response_format

Tipo

Nombre Escribir Descripción Valor predeterminado
type chatCompletionResponseFormat Si se establece en json_object se habilita el modo JSON. Esto garantiza que el mensaje que genera el modelo es JSON válido. text

chatCompletionResponseFormat

Si se establece en json_object se habilita el modo JSON. Esto garantiza que el mensaje que genera el modelo es JSON válido.

Descripción: si se establece en json_object se habilita el modo JSON. Esto garantiza que el mensaje que genera el modelo es JSON válido.

Tipo: string

Valor predeterminado: texto

Nombre de enumeración: ChatCompletionResponseFormat

Valores de enumeración:

Valor Descripción
text El formato de respuesta es una cadena de texto sin formato.
json_object El formato de respuesta es un objeto JSON.

chatCompletionFunction

Nombre Escribir Descripción Necesario Valor predeterminado
nombre cadena El nombre de la función que se llamará. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64.
description string Descripción de lo que hace la función. No
parámetros chatCompletionFunctionParameters Los parámetros que aceptan las funciones, que se describen como un objeto de Esquema JSON. Consulte la referencia del esquema JSON para obtener documentación sobre el formato. No

chatCompletionFunctionParameters

Los parámetros que aceptan las funciones, que se describen como un objeto de Esquema JSON. Consulte la referencia del esquema JSON para obtener documentación sobre el formato.

chatCompletionRequestMessage

Nombre Escribir Descripción Necesario Valor predeterminado
rol chatCompletionRequestMessageRole Rol del autor del mensaje.

chatCompletionRequestMessageRole

Rol del autor del mensaje.

Descripción: rol del autor de mensajes.

Tipo: string

Valor predeterminado:

Nombre de enumeración: ChatCompletionRequestMessageRole

Valores de enumeración:

Valor Descripción
sistema El rol de autor del mensaje es sistema.
usuario El rol de autor del mensaje es usuario.
assistant El rol de autor del mensaje es asistente.
herramienta El rol de autor del mensaje es herramienta.
function Obsoleto. El rol de autor del mensaje es función.

chatCompletionRequestMessageSystem

Nombre Escribir Descripción Necesario Valor predeterminado
rol chatCompletionRequestMessageRole Rol del autor del mensaje.
content string Contenido del mensaje. No

chatCompletionRequestMessageUser

Nombre Escribir Descripción Necesario Valor predeterminado
rol chatCompletionRequestMessageRole Rol del autor del mensaje.
content cadena o matriz No

chatCompletionRequestMessageContentPart

Nombre Escribir Descripción Necesario Valor predeterminado
type chatCompletionRequestMessageContentPartType Tipo del elemento de contenido.

chatCompletionRequestMessageContentPartType

Tipo del elemento de contenido.

Descripción: tipo del elemento de contenido.

Tipo: string

Valor predeterminado:

Nombre de enumeración: ChatCompletionRequestMessageContentPartType

Valores de enumeración:

Valor Descripción
text El tipo de elemento de contenido es texto.
image_url El tipo de elemento de contenido es image_url.

chatCompletionRequestMessageContentPartText

Nombre Escribir Descripción Necesario Valor predeterminado
type chatCompletionRequestMessageContentPartType Tipo del elemento de contenido.
text string Contenido de texto. No

chatCompletionRequestMessageContentPartImage

Nombre Escribir Descripción Necesario Valor predeterminado
type chatCompletionRequestMessageContentPartType Tipo del elemento de contenido.
dirección url string Dirección URL de la imagen o datos de imagen codificados en base64. No
detail imageDetailLevel Especifica el nivel de detalle de la imagen. No auto

imageDetailLevel

Especifica el nivel de detalle de la imagen.

Descripción: especifica el nivel de detalle de la imagen.

Tipo: string

Valor predeterminado: automático

Nombre de enumeración: ImageDetailLevel

Valores de enumeración:

Valor Descripción
auto El nivel de detalle de la imagen es automático.
 Bajo El nivel de detalle de la imagen es bajo.
high El nivel de detalle de la imagen es alto.

chatCompletionRequestMessageAssistant

Nombre Escribir Descripción Necesario Valor predeterminado
rol chatCompletionRequestMessageRole Rol del autor del mensaje.
content string Contenido del mensaje. No
tool_calls array Llamadas a herramientas generadas por el modelo, como las llamadas a funciones. No
context azureChatExtensionsMessageContext Representación de la información de contexto adicional disponible cuando intervienen extensiones de chat de Azure OpenAI
en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando
mediante una solicitud de Azure OpenAI configurada para usar una extensión coincidente.
No

azureChatExtensionConfiguration

Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto se usará mediante una solicitud de finalizaciones de chat que debe usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.

Nombre Escribir Descripción Necesario Valor predeterminado
type azureChatExtensionType Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat
solicitudes de finalización que deben usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta.
El uso de esta configuración solo es compatible con Azure OpenAI.

azureChatExtensionType

Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto se usará mediante una solicitud de finalizaciones de chat que debe usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.

Descripción: representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat
Solicitud de finalización que debería usar las extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta.
El uso de esta configuración solo es compatible con Azure OpenAI.

Tipo: string

Valor predeterminado:

Nombre de enumeración: AzureChatExtensionType

Valores de enumeración:

Valor Descripción
azure_search Representa el uso de Azure Search como una extensión de chat de Azure OpenAI.
azure_cosmos_db Representa el uso de Azure Cosmos DB como una extensión de chat de Azure OpenAI.

azureSearchChatExtensionConfiguration

Representación específica de las opciones configurables para Azure Search al usarlo como una extensión de chat de Azure OpenAI.

Nombre Escribir Descripción Necesario Valor predeterminado
type azureChatExtensionType Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat
solicitudes de finalización que deben usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta.
El uso de esta configuración solo es compatible con Azure OpenAI.
parámetros azureSearchChatExtensionParameters Parámetros de Azure Search cuando se usa como una extensión de chat de Azure OpenAI. No

azureSearchChatExtensionParameters

Parámetros de Azure Search cuando se usa como una extensión de chat de Azure OpenAI.

Nombre Escribir Descripción Necesario Valor predeterminado
autenticación onYourDataApiKeyAuthenticationOptions o onYourDataSystemAssignedManagedIdentityAuthenticationOptions o onYourDataUserAssignedManagedIdentityAuthenticationOptions
top_n_documents integer El número superior configurado de documentos que se van a presentar para la consulta configurada. No
in_scope boolean Si las consultas deben restringirse al uso de datos indexados. No
strictness integer La configuración estricta del filtrado de relevancia de búsqueda. Cuanto más estricta sea, mayor será la precisión, pero una menor coincidencia de la respuesta. No
role_information string Proporcione instrucciones al modelo sobre cómo debe comportarse y cualquier contexto al que debe hacer referencia al generar una respuesta. Puede describir la personalidad del asistente y indicarle cómo dar formato a las respuestas. Hay un límite de 100 tokens para ello, y cuenta contra el límite total de tokens. No
endpoint string Ruta de acceso del punto de conexión absoluto para el recurso de Azure Search que se va a usar.
index_name string El nombre del índice a utilizar como disponible en el recurso de Azure Search referenciado.
fields_mapping azureSearchIndexFieldMappingOptions Opciones opcionales para controlar cómo se procesan los campos al usar un recurso de Azure Search configurado. No
query_type azureSearchQueryType Tipo de consulta de recuperación de Azure Search que se debe ejecutar al usarlo como una instancia de Azure OpenAI en los datos. No
semantic_configuration string Configuración semántica adicional para la consulta. No
filter string Filtro de búsqueda. No
embedding_dependency onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource No

azureSearchIndexFieldMappingOptions

Opciones opcionales para controlar cómo se procesan los campos al usar un recurso de Azure Search configurado.

Nombre Escribir Descripción Necesario Valor predeterminado
title_field string Nombre del campo de índice que se va a usar como título. No
url_field string Nombre del campo de índice que se va a usar como dirección URL. No
filepath_field string Nombre del campo de índice que se va a usar como ruta de acceso de archivo. No
content_fields array Los nombres de los campos de índice que se deben tratar como contenido. No
content_fields_separator string Patrón separador que deben usar los campos de contenido. No
vector_fields array Nombres de campos que representan datos vectoriales. No

azureSearchQueryType

Tipo de consulta de recuperación de Azure Search que se debe ejecutar al usarlo como una instancia de Azure OpenAI en los datos.

Descripción: tipo de consulta de recuperación de Azure Search que debe ejecutarse cuando se utiliza como extensión de chat de Azure OpenAI.

Tipo: string

Valor predeterminado:

Nombre de enumeración: azureSearchQueryType

Valores de enumeración:

Valor Descripción
simple Representa el analizador de consultas simple predeterminado.
semantic Representa el analizador de consultas semánticas para el modelado semántico avanzado.
vector Representa el vector de búsqueda sobre los datos calculados.
vector_simple_hybrid Representa una combinación de la estrategia de consulta simple con datos vectoriales.
vector_semantic_hybrid Representa una combinación de búsqueda semántica y consulta de datos vectoriales.

azureCosmosDBChatExtensionConfiguration

Representación específica de las opciones configurables para Azure Cosmos DB cuando se usa como una extensión de chat de Azure OpenAI.

Nombre Escribir Descripción Necesario Valor predeterminado
type azureChatExtensionType Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat
solicitudes de finalización que deben usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta.
El uso de esta configuración solo es compatible con Azure OpenAI.
parámetros azureCosmosDBChatExtensionParameters Parámetros a usar al configurar las extensiones de chat de Azure OpenAI On Your Data al usar Azure Cosmos DB para
Núcleo virtual de MongoDB.
No

azureCosmosDBChatExtensionParameters

Parámetros a usar al configurar las extensiones de chat de Azure OpenAI On Your Data cuando se usa Azure Cosmos DB for MongoDB vCore.

Nombre Escribir Descripción Necesario Valor predeterminado
autenticación onYourDataConnectionStringAuthenticationOptions Las opciones de autenticación de Azure OpenAI en los datos al usar una cadena de conexión.
top_n_documents integer El número superior configurado de documentos que se van a presentar para la consulta configurada. No
in_scope boolean Si las consultas deben restringirse al uso de datos indexados. No
strictness integer La configuración estricta del filtrado de relevancia de búsqueda. Cuanto más estricta sea, mayor será la precisión, pero una menor coincidencia de la respuesta. No
role_information string Proporcione instrucciones al modelo sobre cómo debe comportarse y cualquier contexto al que debe hacer referencia al generar una respuesta. Puede describir la personalidad del asistente y indicarle cómo dar formato a las respuestas. Hay un límite de 100 tokens para ello, y cuenta contra el límite total de tokens. No
database_name string El nombre de base de datos de núcleo virtual de MongoDB que se va a usar con Azure Cosmos DB.
container_name string El nombre del contenedor de recursos de Azure Cosmos DB.
index_name string El nombre de índice de núcleo virtual de MongoDB que se va a usar con Azure Cosmos DB.
fields_mapping azureCosmosDBFieldMappingOptions Ajustes opcionales para controlar cómo se procesan los campos cuando se utiliza un recurso Azure Cosmos DB configurado.
embedding_dependency onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource

azureCosmosDBFieldMappingOptions

Ajustes opcionales para controlar cómo se procesan los campos cuando se utiliza un recurso Azure Cosmos DB configurado.

Nombre Escribir Descripción Necesario Valor predeterminado
title_field string Nombre del campo de índice que se va a usar como título. No
url_field string Nombre del campo de índice que se va a usar como dirección URL. No
filepath_field string Nombre del campo de índice que se va a usar como ruta de acceso de archivo. No
content_fields array Los nombres de los campos de índice que se deben tratar como contenido.
content_fields_separator string Patrón separador que deben usar los campos de contenido. No
vector_fields array Nombres de campos que representan datos vectoriales.

onYourDataAuthenticationOptions

Las opciones de autenticación de Azure OpenAI On Your Data.

Nombre Escribir Descripción Necesario Valor predeterminado
type onYourDataAuthenticationType Los tipos de autenticación compatibles con Azure OpenAI On Your Data.

onYourDataAuthenticationType

Los tipos de autenticación compatibles con Azure OpenAI On Your Data.

Descripción: tipos de autenticación compatibles con Azure OpenAI On Your Data.

Tipo: string

Valor predeterminado:

Nombre de enumeración: OnYourDataAuthenticationType

Valores de enumeración:

Valor Descripción
api_key Autenticación a través de la clave de API.
connection_string Autenticación a través de la cadena de conexión.
system_assigned_managed_identity Autenticación a través de la identidad administrada asignada por el sistema.
user_assigned_managed_identity Autenticación a través de la identidad administrada asignada por el usuario.

onYourDataApiKeyAuthenticationOptions

Las opciones de autenticación de Azure OpenAI en los datos al usar una clave de API.

Nombre Escribir Descripción Necesario Valor predeterminado
type onYourDataAuthenticationType Los tipos de autenticación compatibles con Azure OpenAI On Your Data.
key string Clave de API que se va a usar para la autenticación. No

onYourDataConnectionStringAuthenticationOptions

Las opciones de autenticación de Azure OpenAI en los datos al usar una cadena de conexión.

Nombre Escribir Descripción Necesario Valor predeterminado
type onYourDataAuthenticationType Los tipos de autenticación compatibles con Azure OpenAI On Your Data.
connection_string string La cadena de conexión que se va a usar para la autenticación. No

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Las opciones de autenticación de Azure OpenAI en los datos al usar una identidad administrada asignada por el sistema.

Nombre Escribir Descripción Necesario Valor predeterminado
type onYourDataAuthenticationType Los tipos de autenticación compatibles con Azure OpenAI On Your Data.

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Las opciones de autenticación de Azure OpenAI en los datos al usar una identidad administrada asignada por el usuario.

Nombre Escribir Descripción Necesario Valor predeterminado
type onYourDataAuthenticationType Los tipos de autenticación compatibles con Azure OpenAI On Your Data.
managed_identity_resource_id string Identificador de recurso de la identidad administrada asignada por el usuario que se va a usar para la autenticación. No

onYourDataVectorizationSource

Una representación abstracta de un origen de vectorización para Azure OpenAI On Your Data con vector de búsqueda.

Nombre Escribir Descripción Necesario Valor predeterminado
type onYourDataVectorizationSourceType Representa los orígenes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para usar con
vector de búsqueda.

onYourDataVectorizationSourceType

Representa los orígenes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con vector de búsqueda.

Descripción: representa los orígenes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con
Vector de búsqueda.

Tipo: string

Valor predeterminado:

Nombre de enumeración: OnYourDataVectorizationSourceType

Valores de enumeración:

Valor Descripción
endpoint Representa la vectorización realizada por llamadas de servicio público a un modelo de inserción de Azure OpenAI.
deployment_name Representa un nombre de implementación de modelo de Ada que se va a usar. Esta implementación de modelo debe estar en el mismo recurso de Azure OpenAI, pero
La característica On Your Data utilizará esta implementación de modelo a través de una llamada interna en lugar de una pública, lo que habilita el vector
de búsqueda incluso en redes privadas.

onYourDataDeploymentNameVectorizationSource

Los detalles de un origen de vectorización, que usa Azure OpenAI On Your Data al aplicar vector de búsqueda, que se basa en un nombre de implementación de modelos de inserción interno en el mismo recurso de Azure OpenAI.

Nombre Escribir Descripción Necesario Valor predeterminado
type onYourDataVectorizationSourceType Representa los orígenes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para usar con
vector de búsqueda.
deployment_name string Especifica el nombre de la implementación de modelo que se va a usar para la vectorización. Esta implementación del modelo debe estar en el mismo recurso de Azure OpenAI, pero On Your Data usará esta implementación de modelo a través de una llamada interna en lugar de una pública, lo que permite la vector de búsqueda incluso en redes privadas. No

onYourDataEndpointVectorizationSource

Los detalles de un origen de vectorización, usado por Azure OpenAI On Your Data al aplicar la vector de búsqueda, que se basa en el punto de conexión público de inserciones para Azure OpenAI.

Nombre Escribir Descripción Necesario Valor predeterminado
type onYourDataVectorizationSourceType Representa los orígenes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para usar con
vector de búsqueda.
autenticación onYourDataApiKeyAuthenticationOptions Las opciones de autenticación de Azure OpenAI en los datos al usar una clave de API. No
endpoint string Especifica el punto de conexión que se va a usar para la vectorización. Este punto de conexión debe estar en el mismo recurso de Azure OpenAI, pero On Your Data usará este punto de conexión a través de una llamada interna en lugar de una pública, lo que habilita la vector de búsqueda incluso en redes privadas. No

azureChatExtensionsMessageContext

Representación de la información de contexto adicional disponible cuando las extensiones de chat de Azure OpenAI participan en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando se usa una solicitud de Azure OpenAI configurada para usar una extensión coincidente.

Nombre Escribir Descripción Necesario Valor predeterminado
citas array Resultado de la recuperación del origen de datos, que se usa para generar el mensaje del asistente en la respuesta. No
intención string La intención detectada del historial de chat, que se usa para pasar al siguiente turno para llevar el contexto. No

Referencia bibliográfica

Información de cita para un mensaje de respuesta de finalizaciones de chat.

Nombre Escribir Descripción Necesario Valor predeterminado
content string Contenido de la cita.
title string Título de la cita. No
dirección url string Dirección URL de la cita. No
filepath string Ruta de acceso del archivo de la cita. No
chunk_id string Identificador del fragmento de la cita. No

chatCompletionMessageToolCall

Nombre Escribir Descripción Necesario Valor predeterminado
id string Identificador de la llamada a la herramienta.
type toolCallType Tipo de la llamada a la herramienta, en este caso function.
function objeto Función a la que llamó el modelo.

Propiedades de la función

Nombre

Nombre Escribir Descripción Valor predeterminado
nombre cadena El nombre de la función que se va a llamar.

Argumentos

Nombre Escribir Descripción Valor predeterminado
argumentos string Argumentos para llamar a la función, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válidos y puede fabricar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función.

toolCallType

Tipo de la llamada a la herramienta, en este caso function.

Descripción: tipo de la llamada a la herramienta, en este caso function.

Tipo: string

Valor predeterminado:

Nombre de enumeración: ToolCallType

Valores de enumeración:

Valor Descripción
function El tipo de llamada de herramienta es función.

chatCompletionRequestMessageTool

Nombre Escribir Descripción Necesario Valor predeterminado
rol chatCompletionRequestMessageRole Rol del autor del mensaje.
tool_call_id string Llamada a la herramienta a la que va a responder este mensaje. No
content string Contenido del mensaje. No

chatCompletionRequestMessageFunction

Nombre Escribir Descripción Necesario Valor predeterminado
rol enum Rol del autor de mensajes, en este caso function.
Valores posibles: función
nombre string Contenido del mensaje. No
content string Contenido del mensaje. No

createChatCompletionResponse

Nombre Escribir Descripción Necesario Valor predeterminado
id string Identificador único para la finalización del chat.
objeto chatCompletionResponseObject El tipo de objeto.
created integer Marca de tiempo de Unix (en segundos) de cuando se creó la finalización de chat.
modelo string Modelo usado para la finalización de chat.
usada completionUsage Estadísticas de uso de la solicitud de finalización. No
system_fingerprint string Se puede usar junto con el parámetro de solicitud seed para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo. No
prompt_filter_results promptFilterResults Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes. No
opciones array No

chatCompletionChoiceLogProbs

Información sobre la probabilidad de registro para la elección.

Nombre Escribir Descripción Necesario Valor predeterminado
content array Lista de tokens de contenido de mensajes con información de probabilidad de registro.

chatCompletionTokenLogprob

Nombre Escribir Descripción Necesario Valor predeterminado
token string Token.
logprob number Probabilidad de registro de este token.
bytes array Lista de enteros que representan la representación de bytes UTF-8 del token. Resulta útil en instancias en las que los caracteres se representan mediante varios tokens y sus representaciones de bytes deben combinarse para generar la representación de texto correcta. Puede ser null si no hay ninguna representación de bytes para el token.
top_logprobs array Lista de los tokens más probables y su probabilidad de registro, en esta posición del token. En raras ocasiones, puede que se devuelvan menos top_logprobs de los solicitados.

chatCompletionResponseMessage

Mensaje de finalización del chat generado por el modelo.

Nombre Escribir Descripción Necesario Valor predeterminado
rol chatCompletionResponseMessageRole Rol del autor del mensaje de respuesta. No
content string Contenido del mensaje. No
tool_calls array Llamadas a herramientas generadas por el modelo, como las llamadas a funciones. No
function_call chatCompletionFunctionCall En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo. No
context azureChatExtensionsMessageContext Representación de la información de contexto adicional disponible cuando intervienen extensiones de chat de Azure OpenAI
en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando
mediante una solicitud de Azure OpenAI configurada para usar una extensión coincidente.
No

chatCompletionResponseMessageRole

Rol del autor del mensaje de respuesta.

Descripción: rol del autor del mensaje de respuesta.

Tipo: string

Valor predeterminado:

Valores de enumeración:

  • assistant

chatCompletionToolChoiceOption

Controla la función (si existe) a la que llama el modelo. none significa que el modelo no llamará a una función y, en su lugar, generará un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función. Especificar una función determinada a través de {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa función.

Este componente puede ser uno de los siguientes:

chatCompletionNamedToolChoice

Especifica una herramienta que debe usar el modelo. Se usa para forzar al modelo a llamar a una función específica.

Nombre Escribir Descripción Necesario Valor predeterminado
type enum El tipo de la herramienta. Actualmente, solo se admite function.
Valores posibles: función
No
function objeto No

Propiedades de la función

Nombre

Nombre Escribir Descripción Valor predeterminado
nombre cadena El nombre de la función que se va a llamar.

chatCompletionFunctionCall

En desuso y reemplazado por tool_calls. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo.

Nombre Escribir Descripción Necesario Valor predeterminado
nombre cadena El nombre de la función que se va a llamar.
argumentos string Argumentos para llamar a la función, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válidos y puede fabricar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función.

chatCompletionsResponseCommon

Nombre Escribir Descripción Necesario Valor predeterminado
id string Identificador único para la finalización del chat.
objeto chatCompletionResponseObject El tipo de objeto.
created integer Marca de tiempo de Unix (en segundos) de cuando se creó la finalización de chat.
modelo string Modelo usado para la finalización de chat.
usada completionUsage Estadísticas de uso de la solicitud de finalización. No
system_fingerprint string Se puede usar junto con el parámetro de solicitud seed para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo. No

chatCompletionResponseObject

El tipo de objeto.

Descripción: tipo de objeto.

Tipo: string

Valor predeterminado:

Nombre de enumeración: ChatCompletionResponseObject

Valores de enumeración:

Valor Descripción
chat.completion El tipo de objeto es la finalización del chat.

completionUsage

Estadísticas de uso de la solicitud de finalización.

Nombre Escribir Descripción Necesario Valor predeterminado
prompt_tokens integer Número de tokens en el símbolo del sistema.
completion_tokens integer Número de tokens en la finalización generada.
total_tokens integer Número total de tokens usados en la solicitud (solicitud + finalización).

chatCompletionTool

Nombre Escribir Descripción Necesario Valor predeterminado
type chatCompletionToolType El tipo de la herramienta. Actualmente, solo se admite function.
function objeto

Propiedades de la función

Descripción

Nombre Escribir Descripción Valor predeterminado
descripción string Descripción de lo que hace la función, que usa el modelo para elegir cuándo y cómo llamar a la función.

Nombre

Nombre Escribir Descripción Valor predeterminado
nombre cadena El nombre de la función que se llamará. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64.

Parámetros

Nombre Escribir Descripción Valor predeterminado
parámetros chatCompletionFunctionParameters Los parámetros que aceptan las funciones, que se describen como un objeto de Esquema JSON. Consulte la referencia del esquema JSON para obtener documentación sobre el formato.

chatCompletionToolType

El tipo de la herramienta. Actualmente, solo se admite function.

Descripción: tipo de la herramienta. Actualmente, solo se admite function.

Tipo: string

Valor predeterminado:

Nombre de enumeración: ChatCompletionToolType

Valores de enumeración:

Valor Descripción
function El tipo de herramienta es función.

chatCompletionChoiceCommon

Nombre Escribir Descripción Necesario Valor predeterminado
índice integer No
finish_reason string No

createTranslationRequest

Solicitud de traducción.

Nombre Escribir Descripción Necesario Valor predeterminado
file string Archivo de audio que se va a traducir.
símbolo del sistema string Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. La indicación debería ser en inglés. No
response_format audioResponseFormat Define el formato de la salida. No
temperatura number Temperatura de muestreo, entre 0 y 1. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. No 0

audioResponse

Respuesta de traducción o transcripción cuando response_format era json

Nombre Escribir Descripción Necesario Valor predeterminado
text string Texto traducido o transcrito.

audioVerboseResponse

Respuesta de traducción o transcripción cuando response_format era verbose_json

Nombre Escribir Descripción Necesario Valor predeterminado
text string Texto traducido o transcrito.
task string Tipo de tarea de audio. No
language string Idioma. No
duración number Duración. No
segmentos array No

audioResponseFormat

Define el formato de la salida.

Descripción: define el formato de la salida.

Tipo: string

Valor predeterminado:

Valores de enumeración:

  • json
  • text
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

Solicitud de transcripción.

Nombre Escribir Descripción Necesario Valor predeterminado
file string Objeto de archivo de audio que se va a transcribir.
símbolo del sistema string Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe coincidir con el idioma del audio. No
response_format audioResponseFormat Define el formato de la salida. No
temperatura number Temperatura de muestreo, entre 0 y 1. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Si se establece en 0, el modelo usará la probabilidad de registro para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. No 0
language string El idioma del audio de entrada. Suministrar el idioma de entrada en formato ISO-639-1 mejorará la precisión y la latencia. No

audioSegment

Segmento de transcripción o traducción.

Nombre Escribir Descripción Necesario Valor predeterminado
id integer Identificador de segmento. No
seek number Desplazamiento del segmento. No
start number Desplazamiento de inicio del segmento. No
end number Desplazamiento final del segmento. No
text string Texto del segmento. No
tokens array Tokens del texto. No
temperatura number Temperatura. No
avg_logprob number Probabilidad media del registro. No
compression_ratio number Relación de compresión. No
no_speech_prob number Probabilidad de "sin voz". No

imageQuality

Calidad de la imagen que se generará.

Descripción: calidad de la imagen que se generará.

Tipo: string

Valor predeterminado: estándar

Nombre de enumeración: Quality

Valores de enumeración:

Valor Descripción
Estándar La calidad estándar crea imágenes con calidad estándar.
hd La calidad HD crea imágenes con detalles más finos y mayor consistencia en toda la imagen.

imagesResponseFormat

Formato en el que se devuelven las imágenes generadas.

Descripción: formato en el que se devuelven las imágenes generadas.

Tipo: string

Valor predeterminado: url

Nombre de enumeración: ImagesResponseFormat

Valores de enumeración:

Valor Descripción
dirección url Dirección URL que proporciona acceso temporal para descargar las imágenes generadas.
b64_json Las imágenes generadas se devuelven como cadena codificada en base64.

imageSize

Tamaño de las imágenes generadas.

Descripción: tamaño de las imágenes generadas.

Tipo: string

Valor predeterminado: 1024x1024

Nombre de enumeración: Size

Valores de enumeración:

Valor Descripción
1792x1024 El tamaño deseado de la imagen generada es de 1792 x 1024 píxeles.
1024x1792 El tamaño deseado de la imagen generada es de 1024 x 1792 píxeles.
1024x1024 El tamaño deseado de la imagen generada es de 1024 x 1024 píxeles.

imageStyle

Estilo de las imágenes generadas.

Descripción: estilo de las imágenes generadas.

Tipo: string

Valor predeterminado: vivid

Nombre de enumeración: Style

Valores de enumeración:

Valor Descripción
vivid Vivid crea imágenes hiperrealistas y dramáticas.
natural Natural crea imágenes que son más naturales y menos hiper-realistas.

imageGenerationsRequest

Nombre Escribir Descripción Necesario Valor predeterminado
símbolo del sistema string Descripción de texto de las imágenes deseadas. La longitud máxima es de 4000 caracteres.
n integer Número de imágenes que se van a generar. No 1
size imageSize Tamaño de las imágenes generadas. No 1024x1024
response_format imagesResponseFormat Formato en el que se devuelven las imágenes generadas. No dirección url
usuario string Identificador único que representa al usuario final, lo que puede ayudar a supervisar y detectar abusos. No
datos imageQuality Calidad de la imagen que se generará. No Estándar
style imageStyle Estilo de las imágenes generadas. No vivid

generateImagesResponse

Nombre Escribir Descripción Necesario Valor predeterminado
created integer La marca de tiempo de UNIX en la que se creó la operación.
data array Datos de resultado de la operación, si se ejecuta correctamente

imageResult

La dirección URL de la imagen o la imagen codificada si se ha realizado correctamente, y un error en caso contrario.

Nombre Escribir Descripción Necesario Valor predeterminado
dirección url string Dirección URL de la imagen. No
b64_json string Imagen codificada en base64 No
content_filter_results dalleContentFilterResults Información sobre los resultados del filtrado de contenido. No
revised_prompt string La indicación que se utilizó para generar la imagen, si hubo alguna revisión de la indicación. No
prompt_filter_results dalleFilterResults Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. No

Extensiones de finalizaciones

Las extensiones de finalización no forman parte de la versión más reciente de disponibilidad general de la especificación de inferencia del plano de datos de Azure OpenAI.

Chatmessage

El objeto de mensaje de chat no forma parte de la versión más reciente de disponibilidad general de la especificación de inferencia del plano de datos de Azure OpenAI.

Texto a voz

Actualmente no forma parte de la versión más reciente de disponibilidad general de Azure OpenAI de la especificación de inferencia del plano de datos de Azure OpenAI. Consulte la última versión preliminar para esta capacidad.

Pasos siguientes

Obtenga información sobre los Modelos y ajustes con la API de REST. Más información sobre los modelos subyacentes que impulsan Azure OpenAI.