Referencia de la API REST de los servicios de Azure OpenAI
En este artículo se proporcionan detalles sobre los puntos de conexión de la API de REST de inferencia de Azure OpenAI.
Especificaciones de API
La administración e interacción con los modelos y recursos de Azure OpenAI se divide en tres superficies de API principales:
- Plano de control
- Plano de datos: creación
- Plano de datos: inferencia
Cada superficie o especificación de API encapsula un conjunto diferente de funcionalidades de Azure OpenAI. Cada API tiene su propio conjunto único de versiones preliminares y estables o disponibles con carácter general (GA). Las versiones preliminares tienden actualmente a seguir una cadencia mensual.
API | Versión preliminar más reciente | Última versión de GA | Especificaciones | Descripción |
---|---|---|---|---|
Plano de control | 2024-06-01-preview |
2023-05-01 |
Archivos de especificación | Azure OpenAI comparte un plano de control común con todos los demás servicios de Azure AI. La API del plano de control se usa para cosas como crear recursos de Azure OpenAI, implementación de modelos y otras tareas de administración de recursos de nivel superior. El plano de control también rige lo que es posible hacer con funcionalidades como Azure Resource Manager, Bicep, Terraform y la CLI de Azure. |
Plano de datos: creación | 2024-10-01-preview |
2024-06-01 |
Archivos de especificación | La API de creación del plano de datos controla el ajuste preciso, la carga de archivos, los trabajos de ingesta, el lote y determinadas consultas de nivel de modelo |
Plano de datos: inferencia | 2024-10-01-preview |
2024-06-01 |
Archivos de especificación | La API de inferencia del plano de datos proporciona las funcionalidades o puntos de conexión de inferencia para características como finalizaciones, finalizaciones de chat, incrustaciones, voz o susurro, en los datos, Dall-e, asistentes, etc. |
Autenticación
Azure OpenAI proporciona dos métodos de autenticación. Puede usar claves de API o Microsoft Entra ID.
Autenticación con claves de API:: para este tipo de autenticación, todas las solicitudes de API deben incluir la clave de API en el encabezado HTTP
api-key
. El inicio rápido proporciona una guía sobre cómo realizar llamadas con este tipo de autenticación.Autenticación de Microsoft Entra ID: puede autenticar una llamada a la API usando un token de Microsoft Entra. Los tokens de autenticación se incluyen en una solicitud como encabezado
Authorization
. El token proporcionado debe ir precedido deBearer
, por ejemploBearer YOUR_AUTH_TOKEN
. Puede leer nuestra guía sobre la autenticación con Microsoft Entra ID.
Control de versiones de la API REST
Las API de servicio se versionan mediante el parámetro de consulta api-version
. Todas las versiones siguen la estructura de fecha AAAA-MM-DD. Por ejemplo:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferencia del plano de datos
El resto del artículo cubre la última versión de GA de la especificación de inferencia del plano de datos de Azure OpenAI, 2024-06-01
.
Si busca documentación sobre la última versión preliminar de la API, consulte la última versión preliminar de la API de inferencia de planos de datos
Finalizaciones
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01
Crea una finalización para la indicación proporcionada, los parámetros y el modelo elegido.
Parámetros de identificador URI
Nombre | En | Obligatorio | Type | Descripción |
---|---|---|---|---|
endpoint | path | Sí | string dirección URL |
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com . Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Sí | string | Identificador de implementación del modelo que se implementó. |
api-version | consulta | Sí | string | Versión de API |
Encabezado de solicitud
Nombre | Obligatorio | Type | Descripción |
---|---|---|---|
api-key | True | string | Proporcione la clave de API de Azure OpenAI aquí |
Cuerpo de la solicitud
Content-Type: application/json
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
símbolo del sistema | cadena o matriz | Las indicaciones para generar los complementos, codificadas como una cadena, una matriz de cadenas. Tenga en cuenta que <|endoftext|> es el separador de documentos que el modelo ve durante el entrenamiento, por lo que si no se especifica una indicación el modelo generará como si fuera desde el principio de un nuevo documento. El tamaño máximo permitido de la lista de cadenas es 2048. |
No | |
max_tokens | integer | El número de tokens de su pregunta más max_tokens no puede exceder la longitud del contexto del modelo. La mayoría de los modelos tienen una longitud de contexto de 2048 tokens (excepto los modelos más recientes, que admiten 4096). Tiene un mínimo de 0. | No | 16 |
temperatura | number | Qué temperatura de muestreo usar. Los valores más altos significan que el modelo tomará más riesgos. Pruebe con 0,9 para aplicaciones más creativas, y con 0 (sampleo máximo arg) para las que tienen una respuesta bien definida. Por lo general, recomendamos modificar esto o top_p, pero no ambos. |
No | 1 |
top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior. Por lo general, recomendamos modificar esto o la temperatura, pero no ambos. |
No | 1 |
logit_bias | objeto | El valor predeterminado es NULL. Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto json que asigna tokens (especificados por su ID de token en el tokenizador GPT) a un valor de sesgo asociado de -100 a 100. Puede usar esta herramienta tokenizadora (que funciona tanto para GPT-2 como para GPT-3) para convertir texto en ID de token. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente. Como ejemplo, puede pasar {"50256": -100} para evitar que se genere el token <|endoftext|>. | No | |
usuario | string | Un identificador único que representa al usuario final, que podría ayudar a supervisar y detectar abusos | No | |
n | integer | Cuántas terminaciones generar para cada pregunta. Mínimo de 1 y máximo de 128 permitidos. Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Use cuidadosamente y asegúrese de que tiene una configuración razonable para max_tokens y detener. |
No | 1 |
flujo | boolean | Si se transmite el progreso parcial. Si se establece, los tokens se enviarán como eventos enviados por el servidor solo de datos a medida que estén disponibles, con el flujo terminado por un mensaje de datos: [DONE]. | No | False |
logprobs | integer | Incluya las probabilidades de registro en los tokens más probables de logprobs, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devolverá una lista de los 5 tokens más probables. La API siempre devolverá el logprob del token muestreado, por lo que puede haber hasta logprobs+1 elementos en la respuesta. Mínimo de 0 y máximo de 5 permitidos. |
No | Ninguno |
sufijo | string | Sufijo que viene después de completar el texto insertado. | No | |
echo | boolean | Devuelve la solicitud además de la finalización | No | False |
stop | cadena o matriz | Hasta 4 secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención. | No | |
completion_config | string | No | ||
presence_penalty | number | Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas. | No | 0 |
frequency_penalty | number | Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente. | No | 0 |
best_of | integer | Genera las finalizaciones best_of del lado del servidor y devuelve la "mejor" (definida como la que tiene la mayor probabilidad de registro por token). Los resultados no se pueden transmitir. Cuando se usa con n, best_of controla el número de terminaciones candidatas y n especifica cuántas devolver - best_of debe ser mayor que n. Nota: Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente la cuota de tokens. Use cuidadosamente y asegúrese de que tiene una configuración razonable para max_tokens y detener. El valor máximo es 128. |
No |
Respuestas
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
id | string | Sí | ||
objeto | string | Sí | ||
created | integer | Sí | ||
modelo | string | Sí | ||
prompt_filter_results | promptFilterResults | Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes. | No | |
opciones | array | Sí | ||
usada | objeto | No |
Propiedades de uso
completion_tokens
Nombre | Escribir | Descripción | Valor predeterminado |
---|---|---|---|
completion_tokens | number | ||
prompt_tokens | number | ||
total_tokens | number |
Código de estado: 200
Descripción: OK
Content-Type | Tipo | Descripción |
---|---|---|
application/json | objeto |
Código de estado: valor predeterminado
Descripción: Servicio no disponible
Content-Type | Tipo | Descripción |
---|---|---|
application/json | errorResponse |
Ejemplos
Ejemplo
Crea una finalización para el símbolo del sistema, los parámetros y el modelo elegido proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-06-01
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respuestas: Código de estado: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Inserciones
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01
Obtenga una representación vectorial de una entrada dada que pueda ser consumida fácilmente por modelos y algoritmos de aprendizaje automático.
Parámetros de identificador URI
Nombre | En | Obligatorio | Type | Descripción |
---|---|---|---|---|
endpoint | path | Sí | string dirección URL |
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com . Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Sí | cadena | |
api-version | consulta | Sí | string | Versión de API |
Encabezado de solicitud
Nombre | Obligatorio | Type | Descripción |
---|---|---|---|
api-key | True | string | Proporcione la clave de API de Azure OpenAI aquí |
Cuerpo de la solicitud
Content-Type: application/json
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
input | cadena o matriz | Texto de entrada para el que se desea obtener incrustaciones. Para obtener incrustaciones para varias entradas en una sola solicitud, pase una matriz de cadenas. Cada matriz no debe superar las 2048 entradas de longitud. A menos que se trate de un código para insertar, le sugerimos que sustituya las nuevas líneas (\n) en su entrada por un solo espacio, ya que hemos observado resultados inferiores cuando las nuevas líneas están presentes. |
Sí | |
usuario | string | Un identificador único que representa al usuario final, que podría ayudar a supervisar y detectar abusos. | No | |
input-type | string | tipo de entrada de búsqueda de inserción que se va a usar | No | |
encoding_format | string | Formato en el que se devuelven las incrustaciones. Puede ser float o base64 . Su valor predeterminado es float . |
No | |
dimensiones | integer | Número de dimensiones que deben tener las incrustaciones de salida resultantes. Solo se admite en modelos text-embedding-3 y versiones posteriores. |
No |
Respuestas
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
objeto | string | Sí | ||
modelo | string | Sí | ||
data | array | Sí | ||
usada | objeto | Sí |
Propiedades de uso
prompt_tokens
Nombre | Escribir | Descripción | Valor predeterminado |
---|---|---|---|
prompt_tokens | integer |
total_tokens
Nombre | Escribir | Descripción | Valor predeterminado |
---|---|---|---|
total_tokens | integer |
Código de estado: 200
Descripción: OK
Content-Type | Tipo | Descripción |
---|---|---|
application/json | objeto |
Ejemplos
Ejemplo
Devuelve las incrustaciones de un mensaje determinado.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-06-01
{
"input": [
"this is a test"
]
}
Respuestas: Código de estado: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Finalizaciones de chat
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
Crea una finalización para el mensaje de chat
Parámetros de identificador URI
Nombre | En | Obligatorio | Type | Descripción |
---|---|---|---|---|
endpoint | path | Sí | string dirección URL |
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com . Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Sí | string | Identificador de implementación del modelo que se implementó. |
api-version | consulta | Sí | string | Versión de API |
Encabezado de solicitud
Nombre | Obligatorio | Type | Descripción |
---|---|---|---|
api-key | True | string | Proporcione la clave de API de Azure OpenAI aquí |
Cuerpo de la solicitud
Content-Type: application/json
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
temperatura | number | Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Por lo general, recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior. Por lo general, recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
flujo | boolean | Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de sólo datos a medida que estén disponibles, y el flujo terminará con un mensaje de data: [DONE] . |
No | False |
stop | cadena o matriz | Hasta 4 secuencias en las que la API dejará de generar más tokens. | No | |
max_tokens | integer | Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4096: tokens de aviso). | No | 4096 |
presence_penalty | number | Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas. | No | 0 |
frequency_penalty | number | Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente. | No | 0 |
logit_bias | objeto | Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto JSON que asignará tokens (especificados por su id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente. | No | |
usuario | string | Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos. | No | |
messages | array | Una lista de mensajes que componen la conversación hasta ahora. Código de Python de ejemplo. | No | |
data_sources | array | Las entradas de configuración de las extensiones de chat de Azure OpenAI que las usan. Esta especificación adicional solo es compatible con Azure OpenAI. |
No | |
n | integer | Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada. | No | 1 |
seed | integer | Si se especifica, el sistema realizará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con un mismo seed y parámetros deben devolver el mismo resultado. No se garantiza el determinismo y debe hacer referencia al parámetro de respuesta system_fingerprint para supervisar los cambios en el back-end. |
No | 0 |
logprobs | boolean | Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en el content de message . Esta opción no está disponible actualmente en el gpt-4-vision-preview modelo. |
No | False |
top_logprobs | integer | Entero entre 0 y 5 que especifica el número de tokens más probables que se devolverán en cada posición del token, cada uno con una probabilidad de registro asociada. logprobs debe establecerse en true si se usa este parámetro. |
No | |
response_format | objeto | Objeto que especifica el formato que debe generar el modelo. Se usa para habilitar el modo JSON. | No | |
tools | array | Una lista de herramientas a las que puede llamar el modelo. Actualmente, solo se admiten funciones como una herramienta. Úselo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. | No | |
tool_choice | ChatCompletionToolChoiceOption | Controla la función (si existe) a la que llama el modelo. none significa que el modelo no llamará a una función y, en su lugar, generará un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función. Especificar una función determinada a través de {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa función. |
No | |
functions | array | En desuso en favor de tools . Una lista de funciones para las que el modelo puede generar entradas JSON. |
No | |
function_call | cadena u objeto | Se ha dejado de usar en favor de tool_choice . Controla cómo responde el modelo a las llamadas de función. "none" significa que el modelo no llama a una función y responde al usuario final. "auto" significa que el modelo puede elegir entre un usuario final o una llamada a una función. Especificar una función determinada a través de {"name":\ "my_function"} obliga al modelo a llamar a esa función. "none" es el valor predeterminado cuando no hay funciones presentes. "auto" es el valor predeterminado si las funciones están presentes. |
No |
Propiedades de response_format
Tipo
Nombre | Escribir | Descripción | Valor predeterminado |
---|---|---|---|
type | chatCompletionResponseFormat | Establecer en json_object habilita el modo JSON. Esto garantiza que el mensaje que genera el modelo es JSON válido. |
text |
Respuestas
Código de estado: 200
Descripción: OK
Content-Type | Tipo | Descripción |
---|---|---|
application/json | CreateChatCompletionResponse |
Código de estado: valor predeterminado
Descripción: Servicio no disponible
Content-Type | Tipo | Descripción |
---|---|---|
application/json | errorResponse |
Ejemplos
Ejemplo
Crea una finalización para el símbolo del sistema, los parámetros y el modelo elegido proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "system",
"content": "you're a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Ejemplo
Crea una finalización basada en los datos de Azure Search y la identidad administrada asignada por el sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Ejemplo
Crea una finalización basada en los datos vectoriales de Azure Search, el mensaje del asistente anterior y la identidad administrada asignada por el usuario.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "you're an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Ejemplo
Crea una finalización para la instancia de Azure Cosmos DB proporcionada.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-06-01
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcripciones
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01
Transcribe el audio en el idioma de entrada.
Parámetros de identificador URI
Nombre | En | Obligatorio | Type | Descripción |
---|---|---|---|---|
endpoint | path | Sí | string dirección URL |
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com . Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Sí | string | Id. de implementación del modelo de susurro. |
api-version | consulta | Sí | string | Versión de API |
Encabezado de solicitud
Nombre | Obligatorio | Type | Descripción |
---|---|---|---|
api-key | True | string | Proporcione la clave de API de Azure OpenAI aquí |
Cuerpo de la solicitud
Tipo de contenido: varias partes/datos de formulario
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
file | string | Objeto de archivo de audio que se va a transcribir. | Sí | |
símbolo del sistema | string | Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe coincidir con el idioma del audio. | No | |
response_format | audioResponseFormat | Define el formato del archivo. | No | |
temperatura | number | Temperatura de muestreo, entre 0 y 1. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Si se fija en 0, el modelo utilizará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. | No | 0 |
language | string | El idioma del audio de entrada. Suministrar la lengua de entrada en formato ISO-639-1 mejorará la precisión y la latencia. | No |
Respuestas
Código de estado: 200
Descripción: OK
Content-Type | Tipo | Descripción |
---|---|---|
application/json | audioResponse o audioVerboseResponse | |
text/plain | string | Texto transcrito en el formato de salida (cuando response_format era uno de texto, vtt o srt). |
Ejemplos
Ejemplo
Obtiene texto transcrito y metadatos asociados de los datos de audio hablados proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01
Respuestas: Código de estado: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Ejemplo
Obtiene texto transcrito y metadatos asociados de los datos de audio hablados proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-06-01
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traducciones
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01
Transcribe y traduce el audio de entrada en texto en inglés.
Parámetros de identificador URI
Nombre | En | Obligatorio | Type | Descripción |
---|---|---|---|---|
endpoint | path | Sí | string dirección URL |
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com . Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Sí | string | Id. de implementación del modelo de susurro que se implementó. |
api-version | consulta | Sí | string | Versión de API |
Encabezado de solicitud
Nombre | Obligatorio | Type | Descripción |
---|---|---|---|
api-key | True | string | Proporcione la clave de API de Azure OpenAI aquí |
Cuerpo de la solicitud
Tipo de contenido: varias partes/datos de formulario
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
file | string | Archivo de audio que se va a traducir. | Sí | |
símbolo del sistema | string | Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe estar en inglés. | No | |
response_format | audioResponseFormat | Define el formato del archivo. | No | |
temperatura | number | Temperatura de muestreo, entre 0 y 1. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Si se fija en 0, el modelo utilizará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. | No | 0 |
Respuestas
Código de estado: 200
Descripción: OK
Content-Type | Tipo | Descripción |
---|---|---|
application/json | audioResponse o audioVerboseResponse | |
text/plain | string | Texto transcrito en el formato de salida (cuando response_format era uno de texto, vtt o srt). |
Ejemplos
Ejemplo
Obtiene el texto transcrito en inglés y los metadatos asociados de los datos de audio hablados proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Ejemplo
Obtiene el texto transcrito en inglés y los metadatos asociados de los datos de audio hablados proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-06-01
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Imagen y generación
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01
Genera un lote de imágenes a partir de una descripción de texto en una determinada implementación de modelo DALLE
Parámetros de identificador URI
Nombre | En | Obligatorio | Type | Descripción |
---|---|---|---|---|
endpoint | path | Sí | string dirección URL |
Puntos de conexión de Azure OpenAI admitidos (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com . Reemplace "aoairesource" por el nombre del recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
deployment-id | path | Sí | string | Identificador de implementación del dall-e modelo que se implementó. |
api-version | consulta | Sí | string | Versión de API |
Encabezado de solicitud
Nombre | Obligatorio | Type | Descripción |
---|---|---|---|
api-key | True | string | Proporcione la clave de API de Azure OpenAI aquí |
Cuerpo de la solicitud
Content-Type: application/json
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
símbolo del sistema | string | Descripción de texto de las imágenes deseadas. La longitud máxima es de 4000 caracteres. | Sí | |
n | integer | Número de imágenes que se van a generar. | No | 1 |
size | imageSize | Tamaño de las imágenes generadas. | No | 1024x1024 |
response_format | imagesResponseFormat | Formato en el que se devuelven las imágenes generadas. | No | dirección url |
usuario | string | Identificador único que representa al usuario final, lo que puede ayudar a supervisar y detectar abusos. | No | |
datos | imageQuality | Calidad de la imagen que se generará. | No | Estándar |
style | imageStyle | Estilo de las imágenes generadas. | No | Vívido |
Respuestas
Código de estado: 200
Descripción: Ok
Content-Type | Tipo | Descripción |
---|---|---|
application/json | generateImagesResponse |
Código de estado: valor predeterminado
Descripción: se produjo un error.
Content-Type | Tipo | Descripción |
---|---|---|
application/json | dalleErrorResponse |
Ejemplos
Ejemplo
Crea imágenes dadas una solicitud.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-06-01
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respuestas: Código de estado: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Componentes
ErrorResponse
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
error | error | No |
errorBase
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
code | string | No | ||
message | string | No |
Error
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
param | string | No | ||
type | cadena | No | ||
inner_error | innerError | Error interno con detalles adicionales. | No |
innerError
Error interno con detalles adicionales.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
code | innerErrorCode | Códigos de error para el objeto de error interno. | No | |
content_filter_results | contentFilterPromptResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. | No |
innerErrorCode
Códigos de error para el objeto de error interno.
Descripción: códigos de error para el objeto de error interno.
Tipo: string
Valor predeterminado:
Nombre de enumeración: InnerErrorCode
Valores de enumeración:
Valor | Descripción |
---|---|
ResponsibleAIPolicyViolation | El mensaje infringía una de las reglas de filtro de contenido. |
dalleErrorResponse
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
error | dalleError | No |
dalleError
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
param | string | No | ||
type | cadena | No | ||
inner_error | dalleInnerError | Error interno con detalles adicionales. | No |
dalleInnerError
Error interno con detalles adicionales.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
code | innerErrorCode | Códigos de error para el objeto de error interno. | No | |
content_filter_results | dalleFilterResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. | No | |
revised_prompt | string | Mensaje que se usó para generar la imagen, si se ha producido alguna revisión en el símbolo del sistema. | No |
contentFilterResultBase
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
filtered | boolean | Sí |
contentFilterSeverityResult
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
filtered | boolean | Sí | ||
severity | string | No |
contentFilterDetectedResult
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
filtered | boolean | Sí | ||
detectado | boolean | No |
contentFilterDetectedWithCitationResult
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
cita | objeto | No |
Propiedades de la cita
URL
Nombre | Escribir | Descripción | Valor predeterminado |
---|---|---|---|
Dirección URL | string |
Licencia
Nombre | Escribir | Descripción | Valor predeterminado |
---|---|---|---|
license | string |
contentFilterResultsBase
Información sobre los resultados del filtrado de contenido.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
Sexual | contentFilterSeverityResult | No | ||
Violencia | contentFilterSeverityResult | No | ||
Odio | contentFilterSeverityResult | No | ||
Autolesiones | contentFilterSeverityResult | No | ||
Palabras soeces | contentFilterDetectedResult | No | ||
error | errorBase | No |
contentFilterPromptResults
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
Sexual | contentFilterSeverityResult | No | ||
Violencia | contentFilterSeverityResult | No | ||
Odio | contentFilterSeverityResult | No | ||
Autolesiones | contentFilterSeverityResult | No | ||
Palabras soeces | contentFilterDetectedResult | No | ||
error | errorBase | No | ||
evasión de seguridad | contentFilterDetectedResult | No |
contentFilterChoiceResults
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre texto de terceros y palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
Sexual | contentFilterSeverityResult | No | ||
Violencia | contentFilterSeverityResult | No | ||
Odio | contentFilterSeverityResult | No | ||
Autolesiones | contentFilterSeverityResult | No | ||
Palabras soeces | contentFilterDetectedResult | No | ||
error | errorBase | No | ||
Texto del material protegido | contentFilterDetectedResult | No | ||
Código de material protegido | contentFilterDetectedWithCitationResult | No |
promptFilterResult
Resultados de filtrado de contenido para una sola solicitud en la solicitud.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
prompt_index | integer | No | ||
content_filter_results | contentFilterPromptResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. | No |
promptFilterResults
Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes.
dalleContentFilterResults
Información sobre los resultados del filtrado de contenido.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
Sexual | contentFilterSeverityResult | No | ||
Violencia | contentFilterSeverityResult | No | ||
Odio | contentFilterSeverityResult | No | ||
Autolesiones | contentFilterSeverityResult | No |
dalleFilterResults
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
Sexual | contentFilterSeverityResult | No | ||
Violencia | contentFilterSeverityResult | No | ||
Odio | contentFilterSeverityResult | No | ||
Autolesiones | contentFilterSeverityResult | No | ||
Palabras soeces | contentFilterDetectedResult | No | ||
evasión de seguridad | contentFilterDetectedResult | No |
chatCompletionsRequestCommon
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
temperatura | number | Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Por lo general, recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior. Por lo general, recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
flujo | boolean | Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de sólo datos a medida que estén disponibles, y el flujo terminará con un mensaje de data: [DONE] . |
No | False |
stop | cadena o matriz | Hasta 4 secuencias en las que la API dejará de generar más tokens. | No | |
max_tokens | integer | Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4096: tokens de aviso). | No | 4096 |
presence_penalty | number | Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas. | No | 0 |
frequency_penalty | number | Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente. | No | 0 |
logit_bias | objeto | Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto JSON que asignará tokens (especificados por su id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente. | No | |
usuario | string | Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos. | No |
CreateChatCompletionRequest
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
temperatura | number | Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Por lo general, recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior. Por lo general, recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
flujo | boolean | Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de sólo datos a medida que estén disponibles, y el flujo terminará con un mensaje de data: [DONE] . |
No | False |
stop | cadena o matriz | Hasta 4 secuencias en las que la API dejará de generar más tokens. | No | |
max_tokens | integer | Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4096: tokens de aviso). | No | 4096 |
presence_penalty | number | Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas. | No | 0 |
frequency_penalty | number | Número entre 2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente. | No | 0 |
logit_bias | objeto | Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto JSON que asignará tokens (especificados por su id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente. | No | |
usuario | string | Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos. | No | |
messages | array | Una lista de mensajes que componen la conversación hasta ahora. Código de Python de ejemplo. | No | |
data_sources | array | Las entradas de configuración de las extensiones de chat de Azure OpenAI que las usan. Esta especificación adicional solo es compatible con Azure OpenAI. |
No | |
n | integer | Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada. | No | 1 |
seed | integer | Si se especifica, el sistema realizará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con un mismo seed y parámetros deben devolver el mismo resultado. No se garantiza el determinismo y debe hacer referencia al parámetro de respuesta system_fingerprint para supervisar los cambios en el back-end. |
No | 0 |
logprobs | boolean | Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en el content de message . Esta opción no está disponible actualmente en el gpt-4-vision-preview modelo. |
No | False |
top_logprobs | integer | Entero entre 0 y 5 que especifica el número de tokens más probables que se devolverán en cada posición del token, cada uno con una probabilidad de registro asociada. logprobs debe establecerse en true si se usa este parámetro. |
No | |
response_format | objeto | Objeto que especifica el formato que debe generar el modelo. Se usa para habilitar el modo JSON. | No | |
tools | array | Una lista de herramientas a las que puede llamar el modelo. Actualmente, solo se admiten funciones como una herramienta. Úselo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. | No | |
tool_choice | ChatCompletionToolChoiceOption | Controla la función (si existe) a la que llama el modelo. none significa que el modelo no llamará a una función y, en su lugar, generará un mensaje. auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función. Especificar una función determinada a través de {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa función. |
No | |
functions | array | En desuso en favor de tools . Una lista de funciones para las que el modelo puede generar entradas JSON. |
No | |
function_call | cadena u objeto | Se ha dejado de usar en favor de tool_choice . Controla cómo responde el modelo a las llamadas de función. "none" significa que el modelo no llama a una función y responde al usuario final. "auto" significa que el modelo puede elegir entre un usuario final o una llamada a una función. Especificar una función determinada a través de {"name":\ "my_function"} obliga al modelo a llamar a esa función. "none" es el valor predeterminado cuando no hay funciones presentes. "auto" es el valor predeterminado si las funciones están presentes. |
No |
Propiedades de response_format
Tipo
Nombre | Escribir | Descripción | Valor predeterminado |
---|---|---|---|
type | chatCompletionResponseFormat | Establecer en json_object habilita el modo JSON. Esto garantiza que el mensaje que genera el modelo es JSON válido. |
text |
ChatCompletionResponseFormat
Establecer en json_object
habilita el modo JSON. Esto garantiza que el mensaje que genera el modelo es JSON válido.
Descripción: establecer en json_object
habilita el modo JSON. Esto garantiza que el mensaje que genera el modelo es JSON válido.
Tipo: string
Valor predeterminado: texto
Nombre de enumeración: ChatCompletionResponseFormat
Valores de enumeración:
Valor | Descripción |
---|---|
text | El formato de respuesta es una cadena de texto sin formato. |
json_object | El formato de respuesta es un objeto JSON. |
chatCompletionFunction
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
nombre | cadena | El nombre de la función que se llamará. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64. | Sí | |
description | string | Descripción de lo que hace la función. | No | |
parámetros | chatCompletionFunctionParameters | Los parámetros que aceptan las funciones, que se describen como un objeto de Esquema JSON. Consulte la referencia del esquema JSON para obtener documentación sobre el formato". | No |
chatCompletionFunctionParameters
Los parámetros que aceptan las funciones, que se describen como un objeto de Esquema JSON. Consulte la referencia del esquema JSON para obtener documentación sobre el formato.
chatCompletionRequestMessage
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
rol | chatCompletionRequestMessageRole | Rol del autor del mensaje. | Sí |
chatCompletionRequestMessageRole
Rol del autor del mensaje.
Descripción: rol del autor de mensajes.
Tipo: string
Valor predeterminado:
Nombre de enumeración: ChatCompletionRequestMessageRole
Valores de enumeración:
Valor | Descripción |
---|---|
sistema | El rol de autor del mensaje es el sistema. |
usuario | El rol de autor del mensaje es usuario. |
assistant | El rol de autor del mensaje es asistente. |
herramienta | El rol de autor del mensaje es la herramienta. |
function | Obsoleto. El rol de autor del mensaje es función. |
chatCompletionRequestMessageSystem
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
rol | chatCompletionRequestMessageRole | Rol del autor del mensaje. | Sí | |
content | string | Contenido del mensaje. | No |
chatCompletionRequestMessageUser
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
rol | chatCompletionRequestMessageRole | Rol del autor del mensaje. | Sí | |
content | cadena o matriz | No |
chatCompletionRequestMessageContentPart
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | chatCompletionRequestMessageContentPartType | Tipo del elemento de contenido. | Sí |
chatCompletionRequestMessageContentPartType
Tipo del elemento de contenido.
Descripción: tipo del elemento de contenido.
Tipo: string
Valor predeterminado:
Nombre de enumeración: ChatCompletionRequestMessageContentPartType
Valores de enumeración:
Valor | Descripción |
---|---|
text | El tipo de elemento de contenido es texto. |
image_url | El tipo de elemento de contenido se image_url. |
chatCompletionRequestMessageContentPartText
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | chatCompletionRequestMessageContentPartType | Tipo del elemento de contenido. | Sí | |
text | string | Contenido de texto. | No |
chatCompletionRequestMessageContentPartImage
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | chatCompletionRequestMessageContentPartType | Tipo del elemento de contenido. | Sí | |
dirección url | string | Dirección URL de la imagen o datos de imagen codificados en base64. | No | |
detail | imageDetailLevel | Especifica el nivel de detalle de la imagen. | No | auto |
imageDetailLevel
Especifica el nivel de detalle de la imagen.
Descripción: Especifica el nivel de detalle de la imagen.
Tipo: string
Valor predeterminado: auto
Nombre de enumeración: ImageDetailLevel
Valores de enumeración:
Valor | Descripción |
---|---|
auto | El nivel de detalle de la imagen es automático. |
Bajo | El nivel de detalle de la imagen es bajo. |
high | El nivel de detalle de la imagen es alto. |
chatCompletionRequestMessageAssistant
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
rol | chatCompletionRequestMessageRole | Rol del autor del mensaje. | Sí | |
content | string | Contenido del mensaje. | No | |
tool_calls | array | Llamadas a herramientas generadas por el modelo, como las llamadas a funciones. | No | |
context | azureChatExtensionsMessageContext | Representación de la información de contexto adicional disponible cuando intervienen extensiones de chat de Azure OpenAI en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando mediante una solicitud de Azure OpenAI configurada para usar una extensión coincidente. |
No |
azureChatExtensionConfiguration
Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto se usará mediante una solicitud de finalizaciones de chat que debe usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | azureChatExtensionType | Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat solicitudes de finalización que deben usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI. |
Sí |
azureChatExtensionType
Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto se usará mediante una solicitud de finalizaciones de chat que debe usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.
Descripción: representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat
Las finalizaciones solicitan que deben usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta.
El uso de esta configuración solo es compatible con Azure OpenAI.
Tipo: string
Valor predeterminado:
Nombre de enumeración: AzureChatExtensionType
Valores de enumeración:
Valor | Descripción |
---|---|
azure_search | Representa el uso de Azure Search como una extensión de chat de Azure OpenAI. |
azure_cosmos_db | Representa el uso de Azure Cosmos DB como una extensión de chat de Azure OpenAI. |
azureSearchChatExtensionConfiguration
Representación específica de las opciones configurables para Azure Search al usarlo como una extensión de chat de Azure OpenAI.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | azureChatExtensionType | Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat solicitudes de finalización que deben usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI. |
Sí | |
parámetros | azureSearchChatExtensionParameters | Parámetros de Azure Search cuando se usa como una extensión de chat de Azure OpenAI. | No |
azureSearchChatExtensionParameters
Parámetros de Azure Search cuando se usa como una extensión de chat de Azure OpenAI.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
autenticación | onYourDataApiKeyAuthenticationOptions o onYourDataSystemAssignedManagedIdentityAuthenticationOptions o onYourDataUserAssignedManagedIdentityAuthenticationOptions | Sí | ||
top_n_documents | integer | El número superior configurado de documentos que se van a presentar para la consulta configurada. | No | |
in_scope | boolean | Si las consultas deben restringirse al uso de datos indexados. | No | |
rigurosidad | integer | La configuración estricta del filtrado de relevancia de búsqueda. Cuanto más estricta sea, mayor será la precisión, pero una menor coincidencia de la respuesta. | No | |
role_information | string | Proporcione instrucciones al modelo sobre cómo debe comportarse y cualquier contexto al que debe hacer referencia al generar una respuesta. Puede describir la personalidad del asistente y indicarle cómo dar formato a las respuestas. Hay un límite de 100 tokens para él y cuenta con respecto al límite total de tokens. | No | |
endpoint | string | Ruta de acceso del punto de conexión absoluto para el recurso de Azure Search que se va a usar. | Sí | |
index_name | string | El nombre del índice a utilizar como disponible en el recurso Azure Search referenciado. | Sí | |
fields_mapping | azureSearchIndexFieldMappingOptions | Opciones opcionales para controlar cómo se procesan los campos al usar un recurso de Azure Search configurado. | No | |
query_type | azureSearchQueryType | Tipo de consulta de recuperación de Azure Search que se debe ejecutar al usarlo como una instancia de Azure OpenAI en los datos. | No | |
semantic_configuration | string | Configuración semántica adicional para la consulta. | No | |
filter | string | Filtro de búsqueda. | No | |
embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource | No |
azureSearchIndexFieldMappingOptions
Opciones opcionales para controlar cómo se procesan los campos al usar un recurso de Azure Search configurado.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
title_field | string | Nombre del campo de índice que se va a usar como título. | No | |
url_field | string | Nombre del campo de índice que se va a usar como dirección URL. | No | |
filepath_field | string | Nombre del campo de índice que se va a usar como ruta de acceso de archivo. | No | |
content_fields | array | Los nombres de los campos de índice que se deben tratar como contenido. | No | |
content_fields_separator | string | Patrón separador que deben usar los campos de contenido. | No | |
vector_fields | array | Nombres de campos que representan datos vectoriales. | No |
azureSearchQueryType
Tipo de consulta de recuperación de Azure Search que se debe ejecutar al usarlo como una instancia de Azure OpenAI en los datos.
Descripción: El tipo de consulta de recuperación de Azure Search que debe ejecutarse cuando se utiliza como extensión de chat de Azure OpenAI.
Tipo: string
Valor predeterminado:
Nombre de enumeración: azureSearchQueryType
Valores de enumeración:
Valor | Descripción |
---|---|
simple | Representa el analizador de consultas simple predeterminado. |
semantic | Representa el analizador de consultas semánticas para el modelado semántico avanzado. |
vector | Representa el vector de búsqueda sobre los datos calculados. |
vector_simple_hybrid | Representa una combinación de la estrategia de consulta simple con datos vectoriales. |
vector_semantic_hybrid | Representa una combinación de búsqueda semántica y consulta de datos vectoriales. |
azureCosmosDBChatExtensionConfiguration
Representación específica de las opciones configurables para Azure Cosmos DB cuando se usa como una extensión de chat de Azure OpenAI.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | azureChatExtensionType | Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto lo usará un chat solicitudes de finalización que deben usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI. |
Sí | |
parámetros | azureCosmosDBChatExtensionParameters | Parámetros que se usarán al configurar Azure OpenAI en las extensiones de chat de datos al usar Azure Cosmos DB para Núcleo virtual de MongoDB. |
No |
azureCosmosDBChatExtensionParameters
Parámetros que se usarán al configurar Azure OpenAI en las extensiones de chat de datos al usar Azure Cosmos DB para núcleos virtuales de MongoDB.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
autenticación | onYourDataConnectionStringAuthenticationOptions | Las opciones de autenticación de Azure OpenAI en los datos al usar una cadena de conexión. | Sí | |
top_n_documents | integer | El número superior configurado de documentos que se van a presentar para la consulta configurada. | No | |
in_scope | boolean | Si las consultas deben restringirse al uso de datos indexados. | No | |
rigurosidad | integer | La configuración estricta del filtrado de relevancia de búsqueda. Cuanto más estricta sea, mayor será la precisión, pero una menor coincidencia de la respuesta. | No | |
role_information | string | Proporcione instrucciones al modelo sobre cómo debe comportarse y cualquier contexto al que debe hacer referencia al generar una respuesta. Puede describir la personalidad del asistente y indicarle cómo dar formato a las respuestas. Hay un límite de 100 tokens para él y cuenta con respecto al límite total de tokens. | No | |
database_name | string | El nombre de base de datos de núcleo virtual de MongoDB que se va a usar con Azure Cosmos DB. | Sí | |
container_name | string | El nombre del contenedor de recursos de Azure Cosmos DB. | Sí | |
index_name | string | El nombre de índice de núcleo virtual de MongoDB que se va a usar con Azure Cosmos DB. | Sí | |
fields_mapping | azureCosmosDBFieldMappingOptions | Ajustes opcionales para controlar cómo se procesan los campos cuando se utiliza un recurso Azure Cosmos DB configurado. | Sí | |
embedding_dependency | onYourDataEndpointVectorizationSource o onYourDataDeploymentNameVectorizationSource | Sí |
azureCosmosDBFieldMappingOptions
Ajustes opcionales para controlar cómo se procesan los campos cuando se utiliza un recurso Azure Cosmos DB configurado.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
title_field | string | Nombre del campo de índice que se va a usar como título. | No | |
url_field | string | Nombre del campo de índice que se va a usar como dirección URL. | No | |
filepath_field | string | Nombre del campo de índice que se va a usar como ruta de acceso de archivo. | No | |
content_fields | array | Los nombres de los campos de índice que se deben tratar como contenido. | Sí | |
content_fields_separator | string | Patrón separador que deben usar los campos de contenido. | No | |
vector_fields | array | Nombres de campos que representan datos vectoriales. | Sí |
onYourDataAuthenticationOptions
Las opciones de autenticación de Azure OpenAI en los datos.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | onYourDataAuthenticationType | Los tipos de autenticación compatibles con Azure OpenAI en los datos. | Sí |
onYourDataAuthenticationType
Los tipos de autenticación compatibles con Azure OpenAI en los datos.
Descripción: los tipos de autenticación compatibles con Azure OpenAI en los datos.
Tipo: string
Valor predeterminado:
Nombre de enumeración: OnYourDataAuthenticationType
Valores de enumeración:
Valor | Descripción |
---|---|
api_key | Autenticación a través de la clave de API. |
connection_string | Autenticación a través de la cadena de conexión. |
system_assigned_managed_identity | Autenticación a través de la identidad gestionada asignada por el sistema. |
user_assigned_managed_identity | Autenticación a través de la identidad gestionada asignada al usuario. |
onYourDataApiKeyAuthenticationOptions
Las opciones de autenticación de Azure OpenAI en los datos al usar una clave de API.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | onYourDataAuthenticationType | Los tipos de autenticación compatibles con Azure OpenAI en los datos. | Sí | |
key | string | Clave de API que se va a usar para la autenticación. | No |
onYourDataConnectionStringAuthenticationOptions
Las opciones de autenticación de Azure OpenAI en los datos al usar una cadena de conexión.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | onYourDataAuthenticationType | Los tipos de autenticación compatibles con Azure OpenAI en los datos. | Sí | |
connection_string | string | La cadena de conexión que se va a usar para la autenticación. | No |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Las opciones de autenticación de Azure OpenAI en los datos al usar una identidad administrada asignada por el sistema.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | onYourDataAuthenticationType | Los tipos de autenticación compatibles con Azure OpenAI en los datos. | Sí |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Las opciones de autenticación de Azure OpenAI en los datos al usar una identidad administrada asignada por el usuario.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | onYourDataAuthenticationType | Los tipos de autenticación compatibles con Azure OpenAI en los datos. | Sí | |
managed_identity_resource_id | string | Identificador de recurso de la identidad administrada asignada por el usuario que se va a usar para la autenticación. | No |
onYourDataVectorizationSource
Representación abstracta de un origen de vectorización para Azure OpenAI en los datos con vector de búsqueda.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Representa los orígenes disponibles que Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con vector de búsqueda. |
Sí |
onYourDataVectorizationSourceType
Representa los orígenes disponibles que Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con la vector de búsqueda.
Descripción: representa los orígenes disponibles que Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con
Vector de búsqueda.
Tipo: string
Valor predeterminado:
Nombre de enumeración: OnYourDataVectorizationSourceType
Valores de enumeración:
Valor | Descripción |
---|---|
endpoint | Representa la vectorización realizada por llamadas de servicio público a un modelo de inserción de Azure OpenAI. |
deployment_name | Representa un nombre de implementación del modelo de Ada que se va a usar. Esta implementación de modelo debe estar en el mismo recurso de Azure OpenAI, pero La característica On Your Data utilizará esta implementación de modelo a través de una llamada interna en lugar de una pública, lo que habilita el vector de búsqueda incluso en redes privadas. |
onYourDataDeploymentNameVectorizationSource
Los detalles de un origen de vectorización, que usa Azure OpenAI en los datos al aplicar un vector de búsqueda, que se basa en un nombre de implementación de modelos de inserción interno en el mismo recurso de Azure OpenAI.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Representa los orígenes disponibles que Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con vector de búsqueda. |
Sí | |
deployment_name | string | Especifica el nombre de la implementación de modelo que se va a usar para la vectorización. Esta implementación del modelo debe estar en el mismo recurso de Azure OpenAI, pero En los datos usará esta implementación de modelo a través de una llamada interna en lugar de una pública, lo que permite el vector de búsqueda incluso en redes privadas. | No |
onYourDataEndpointVectorizationSource
Los detalles de un origen de vectorización, usado por Azure OpenAI On Your Data al aplicar la vector de búsqueda, que se basa en el punto de conexión público de inserciones para Azure OpenAI.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Representa los orígenes disponibles que Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con vector de búsqueda. |
Sí | |
autenticación | onYourDataApiKeyAuthenticationOptions | Las opciones de autenticación de Azure OpenAI en los datos al usar una clave de API. | No | |
endpoint | string | Especifica el punto de conexión que se va a usar para la vectorización. Este punto de conexión debe estar en el mismo recurso de Azure OpenAI, pero On Your Data usará este punto de conexión a través de una llamada interna en lugar de una pública, lo que habilita la vector de búsqueda incluso en redes privadas. | No |
azureChatExtensionsMessageContext
Representación de la información de contexto adicional disponible cuando las extensiones de chat de Azure OpenAI participan en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando se usa una solicitud de Azure OpenAI configurada para usar una extensión coincidente.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
Citas | array | Resultado de la recuperación del origen de datos, que se usa para generar el mensaje del asistente en la respuesta. | No | |
intención | string | La intención detectada del historial de chat, que se usa para pasar al siguiente turno para llevar el contexto. | No |
Referencia bibliográfica
Información de cita para un mensaje de respuesta de finalizaciones de chat.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
content | string | Contenido de la cita. | Sí | |
title | string | Título de la cita. | No | |
dirección url | string | Dirección URL de la cita. | No | |
filepath | string | Ruta de acceso del archivo de la cita. | No | |
chunk_id | string | Identificador del fragmento de la cita. | No |
chatCompletionMessageToolCall
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
id | string | Identificador de la llamada a la herramienta. | Sí | |
type | toolCallType | Tipo de la llamada a la herramienta, en este caso function . |
Sí | |
function | objeto | Función a la que llamó el modelo. | Sí |
Propiedades de la función
Nombre
Nombre | Escribir | Descripción | Valor predeterminado |
---|---|---|---|
nombre | cadena | El nombre de la función que se va a llamar. |
Argumentos
Nombre | Escribir | Descripción | Valor predeterminado |
---|---|---|---|
argumentos | string | Argumentos para llamar a la función, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válidos y puede fabricar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función. |
toolCallType
Tipo de la llamada a la herramienta, en este caso function
.
Descripción: el tipo de la llamada a la herramienta, en este caso function
.
Tipo: string
Valor predeterminado:
Nombre de enumeración: ToolCallType
Valores de enumeración:
Valor | Descripción |
---|---|
function | El tipo de llamada de herramienta es función. |
chatCompletionRequestMessageTool
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
rol | chatCompletionRequestMessageRole | Rol del autor del mensaje. | Sí | |
tool_call_id | string | Llamada a la herramienta a la que va a responder este mensaje. | No | |
content | string | Contenido del mensaje. | No |
chatCompletionRequestMessageFunction
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
rol | enum | Rol del autor de mensajes, en este caso function .Valores posibles: función |
Sí | |
nombre | string | Contenido del mensaje. | No | |
content | string | Contenido del mensaje. | No |
CreateChatCompletionResponse
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
id | string | Identificador único para la finalización del chat. | Sí | |
objeto | chatCompletionResponseObject | El tipo de objeto. | Sí | |
created | integer | Marca de tiempo de Unix (en segundos) de cuando se creó la finalización de chat. | Sí | |
modelo | string | Modelo usado para la finalización de chat. | Sí | |
usada | CompletionUsage | Estadísticas de uso de la solicitud de finalización. | No | |
system_fingerprint | string | Se puede usar junto con el parámetro de solicitud seed para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo. |
No | |
prompt_filter_results | promptFilterResults | Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes. | No | |
opciones | array | No |
chatCompletionChoiceLogProbs
Registre la información de probabilidad para la elección.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
content | array | Lista de tokens de contenido de mensajes con información de probabilidad de registro. | Sí |
chatCompletionTokenLogprob
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
token | string | Token. | Sí | |
logprob | number | Probabilidad de registro de este token. | Sí | |
bytes | array | Lista de enteros que representan la representación de bytes UTF-8 del token. Resulta útil en instancias en las que los caracteres se representan mediante varios tokens y sus representaciones de bytes deben combinarse para generar la representación de texto correcta. Puede ser null si no hay ninguna representación de bytes para el token. |
Sí | |
top_logprobs | array | Lista de los tokens más probables y su probabilidad de registro, en esta posición del token. En raras ocasiones, puede que se devuelvan menos top_logprobs de los solicitados. |
Sí |
ChatCompletionResponseMessage
Mensaje de finalización del chat generado por el modelo.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
rol | chatCompletionResponseMessageRole | Rol del autor del mensaje de respuesta. | No | |
content | string | Contenido del mensaje. | No | |
tool_calls | array | Llamadas a herramientas generadas por el modelo, como las llamadas a funciones. | No | |
function_call | chatCompletionFunctionCall | En desuso y reemplazado por tool_calls . Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo. |
No | |
context | azureChatExtensionsMessageContext | Representación de la información de contexto adicional disponible cuando intervienen extensiones de chat de Azure OpenAI en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando mediante una solicitud de Azure OpenAI configurada para usar una extensión coincidente. |
No |
chatCompletionResponseMessageRole
Rol del autor del mensaje de respuesta.
Descripción: rol del autor del mensaje de respuesta.
Tipo: string
Valor predeterminado:
Valores de enumeración:
- assistant
chatCompletionToolChoiceOption
Controla la función (si existe) a la que llama el modelo. none
significa que el modelo no llamará a una función y, en su lugar, generará un mensaje. auto
significa que el modelo puede elegir entre generar un mensaje o llamar a una función. Especificar una función determinada a través de {"type": "function", "function": {"name": "my_function"}}
obliga al modelo a llamar a esa función.
Este componente puede ser uno de los siguientes:
chatCompletionNamedToolChoice
Especifica una herramienta que debe usar el modelo. Use para forzar que el modelo llame a una función específica.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | enum | El tipo de la herramienta. Actualmente, solo se admite function .Valores posibles: función |
No | |
function | objeto | No |
Propiedades de la función
Nombre
Nombre | Escribir | Descripción | Valor predeterminado |
---|---|---|---|
nombre | cadena | El nombre de la función que se va a llamar. |
chatCompletionFunctionCall
En desuso y reemplazado por tool_calls
. Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
nombre | cadena | El nombre de la función que se va a llamar. | Sí | |
argumentos | string | Argumentos para llamar a la función, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válidos y puede fabricar parámetros no definidos por el esquema de función. Valide los argumentos del código antes de llamar a la función. | Sí |
chatCompletionsResponseCommon
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
id | string | Identificador único para la finalización del chat. | Sí | |
objeto | chatCompletionResponseObject | El tipo de objeto. | Sí | |
created | integer | Marca de tiempo de Unix (en segundos) de cuando se creó la finalización de chat. | Sí | |
modelo | string | Modelo usado para la finalización de chat. | Sí | |
usada | CompletionUsage | Estadísticas de uso de la solicitud de finalización. | No | |
system_fingerprint | string | Se puede usar junto con el parámetro de solicitud seed para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo. |
No |
chatCompletionResponseObject
El tipo de objeto.
Descripción: El tipo de objeto.
Tipo: string
Valor predeterminado:
Nombre de enumeración: ChatCompletionResponseObject
Valores de enumeración:
Valor | Descripción |
---|---|
chat.completion | El tipo de objeto es la finalización del chat. |
completionUsage
Estadísticas de uso de la solicitud de finalización.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
prompt_tokens | integer | Número de tokens en el símbolo del sistema. | Sí | |
completion_tokens | integer | Número de tokens en la finalización generada. | Sí | |
total_tokens | integer | Número total de tokens usados en la solicitud (solicitud + finalización). | Sí |
chatCompletionTool
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
type | chatCompletionToolType | El tipo de la herramienta. Actualmente, solo se admite function . |
Sí | |
function | objeto | Sí |
Propiedades de la función
Descripción
Nombre | Escribir | Descripción | Valor predeterminado |
---|---|---|---|
descripción | string | Descripción de lo que hace la función, que usa el modelo para elegir cuándo y cómo llamar a la función. |
Nombre
Nombre | Escribir | Descripción | Valor predeterminado |
---|---|---|---|
nombre | cadena | El nombre de la función que se llamará. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64. |
Parámetros
Nombre | Escribir | Descripción | Valor predeterminado |
---|---|---|---|
parámetros | chatCompletionFunctionParameters | Los parámetros que aceptan las funciones, que se describen como un objeto de Esquema JSON. Consulte la referencia del esquema JSON para obtener documentación sobre el formato. |
chatCompletionToolType
El tipo de la herramienta. Actualmente, solo se admite function
.
Descripción: tipo de la herramienta. Actualmente, solo se admite function
.
Tipo: string
Valor predeterminado:
Nombre de enumeración: ChatCompletionToolType
Valores de enumeración:
Valor | Descripción |
---|---|
function | El tipo de herramienta es función. |
chatCompletionChoiceCommon
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
índice | integer | No | ||
finish_reason | string | No |
createTranslationRequest
Solicitud de traducción.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
file | string | Archivo de audio que se va a traducir. | Sí | |
símbolo del sistema | string | Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe estar en inglés. | No | |
response_format | audioResponseFormat | Define el formato del archivo. | No | |
temperatura | number | Temperatura de muestreo, entre 0 y 1. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Si se fija en 0, el modelo utilizará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. | No | 0 |
audioResponse
Respuesta de traducción o transcripción cuando response_format era json
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
text | string | Texto traducido o transcrito. | Sí |
audioVerboseResponse
Respuesta de traducción o transcripción cuando se verbose_json response_format
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
text | string | Texto traducido o transcrito. | Sí | |
task | string | Tipo de tarea de audio. | No | |
language | string | Idioma. | No | |
duración | number | Duración. | No | |
segmentos | array | No |
audioResponseFormat
Define el formato del archivo.
Descripción: define el formato de la salida.
Tipo: string
Valor predeterminado:
Valores de enumeración:
- json
- text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Solicitud de transcripción.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
file | string | Objeto de archivo de audio que se va a transcribir. | Sí | |
símbolo del sistema | string | Texto opcional para guiar el estilo del modelo o continuar con un segmento de audio anterior. El mensaje debe coincidir con el idioma del audio. | No | |
response_format | audioResponseFormat | Define el formato del archivo. | No | |
temperatura | number | Temperatura de muestreo, entre 0 y 1. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Si se fija en 0, el modelo utilizará la probabilidad logarítmica para aumentar automáticamente la temperatura hasta que se alcancen determinados umbrales. | No | 0 |
language | string | El idioma del audio de entrada. Suministrar la lengua de entrada en formato ISO-639-1 mejorará la precisión y la latencia. | No |
audioSegment
Segmento de transcripción o traducción.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
id | integer | Identificador de segmento. | No | |
Seek | number | Desplazamiento del segmento. | No | |
start | number | Desplazamiento de inicio del segmento. | No | |
end | number | Desplazamiento final del segmento. | No | |
text | string | Segmentar texto. | No | |
tokens | array | Tokens del texto. | No | |
temperatura | number | Temperatura. | No | |
avg_logprob | number | Probabilidad media del registro. | No | |
compression_ratio | number | Razón de compresión. | No | |
no_speech_prob | number | Probabilidad de "sin voz". | No |
imageQuality
Calidad de la imagen que se generará.
Descripción: calidad de la imagen que se generará.
Tipo: string
Valor predeterminado: estándar
Nombre de enumeración: Calidad
Valores de enumeración:
Valor | Descripción |
---|---|
Estándar | La calidad estándar crea imágenes con calidad estándar. |
hd | La calidad HD crea imágenes con detalles más finos y mayor consistencia en toda la imagen. |
imagesResponseFormat
Formato en el que se devuelven las imágenes generadas.
Descripción: El formato en el que se devuelven las imágenes generadas.
Tipo: string
Valor predeterminado: url
Nombre de enumeración: ImagesResponseFormat
Valores de enumeración:
Valor | Descripción |
---|---|
dirección url | Dirección URL que proporciona acceso temporal para descargar las imágenes generadas. |
b64_json | Las imágenes generadas se devuelven como cadena codificada en base64. |
imageSize
Tamaño de las imágenes generadas.
Descripción: El tamaño de las imágenes generadas.
Tipo: string
Valor predeterminado: 1024x1024
Nombre de enumeración: Tamaño
Valores de enumeración:
Valor | Descripción |
---|---|
1792x1024 | El tamaño deseado de la imagen generada es de 1792 x 1024 píxeles. |
1024x1792 | El tamaño deseado de la imagen generada es de 1024 x 1792 píxeles. |
1024x1024 | El tamaño deseado de la imagen generada es de 1024 x 1024 píxeles. |
imageStyle
Estilo de las imágenes generadas.
Descripción: estilo de las imágenes generadas.
Tipo: string
Valor predeterminado: vívido
Nombre de enumeración: Estilo
Valores de enumeración:
Valor | Descripción |
---|---|
Vívido | Vívidas crea imágenes que son hiper-realistas y dramáticas. |
natural | Natural crea imágenes que son más naturales y menos hiper-realistas. |
imageGenerationsRequest
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
símbolo del sistema | string | Descripción de texto de las imágenes deseadas. La longitud máxima es de 4000 caracteres. | Sí | |
n | integer | Número de imágenes que se van a generar. | No | 1 |
size | imageSize | Tamaño de las imágenes generadas. | No | 1024x1024 |
response_format | imagesResponseFormat | Formato en el que se devuelven las imágenes generadas. | No | dirección url |
usuario | string | Identificador único que representa al usuario final, lo que puede ayudar a supervisar y detectar abusos. | No | |
datos | imageQuality | Calidad de la imagen que se generará. | No | Estándar |
style | imageStyle | Estilo de las imágenes generadas. | No | Vívido |
generateImagesResponse
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
created | integer | Marca de tiempo de unix cuando se creó la operación. | Sí | |
data | array | Datos de resultado de la operación, si se ejecuta correctamente | Sí |
imageResult
La dirección URL de la imagen o la imagen codificada si se ejecuta correctamente y, de lo contrario, se produce un error.
Nombre | Escribir | Descripción | Necesario | Valor predeterminado |
---|---|---|---|---|
dirección url | string | The image url. | No | |
b64_json | string | Imagen codificada en base64 | No | |
content_filter_results | dalleContentFilterResults | Información sobre los resultados del filtrado de contenido. | No | |
revised_prompt | string | Mensaje que se usó para generar la imagen, si se ha producido alguna revisión en el símbolo del sistema. | No | |
prompt_filter_results | dalleFilterResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si se ha detectado, así como el nivel de gravedad (very_low, bajo, medio y alto escala que determina la intensidad y el nivel de riesgo de contenido dañino) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueados del cliente, si se ha filtrado y su identificador. | No |
Extensiones de finalizaciones
Las extensiones de finalización no forman parte de la versión más reciente de disponibilidad general de la especificación de inferencia del plano de datos de Azure OpenAI.
Chatmessage
El objeto de mensaje de chat no forma parte de la versión más reciente de disponibilidad general de la especificación de inferencia del plano de datos de Azure OpenAI.
Texto a voz
Actualmente no forma parte de la versión más reciente de disponibilidad general de Azure OpenAI de la especificación de inferencia del plano de datos de Azure OpenAI. Consulte la última versión preliminar para esta capacidad.
Pasos siguientes
Obtenga información sobre los Modelos y ajustes con la API de REST. Más información sobre los modelos subyacentes que impulsan Azure OpenAI.