Azure OpenAI (versión preliminar)
Integrar fácilmente Azure las funcionalidades de inteligencia artificial de vanguardia de OpenAI en los flujos de trabajo
Este conector está disponible en los siguientes productos y regiones:
| Service | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Todas las regiones Power Automate excepto las siguientes: - Gobierno de EE. UU. (GCC) - Gobierno de EE. UU. (GCC High) - China Cloud operado por 21Vianet - Departamento de Defensa de EE. UU. (DoD) |
| Aplicaciones lógicas | Estándar | Todas las regiones de Logic Apps excepto las siguientes: - regiones de Azure Government - Azure regiones de China - Departamento de Defensa de EE. UU. (DoD) |
| Power Apps | Premium | Todas las regiones Power Apps excepto las siguientes: - Gobierno de EE. UU. (GCC) - Gobierno de EE. UU. (GCC High) - China Cloud operado por 21Vianet - Departamento de Defensa de EE. UU. (DoD) |
| Power Automate | Premium | Todas las regiones Power Automate excepto las siguientes: - Gobierno de EE. UU. (GCC) - Gobierno de EE. UU. (GCC High) - China Cloud operado por 21Vianet - Departamento de Defensa de EE. UU. (DoD) |
| Contacto | |
|---|---|
| Nombre | Microsoft |
| URL | https://support.microsoft.com |
| Metadatos del conector | |
|---|---|
| Publisher | Microsoft |
| Sitio web | https://azure.microsoft.com/en-us/products/cognitive-services/openai-service |
| Directiva de privacidad | https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy |
| Categorías | IA; Business Intelligence |
Azure OpenAI en sus datos le permite ejecutar modelos avanzados de inteligencia artificial como GPT-35-Turbo y GPT-4 en sus propios datos empresariales sin necesidad de entrenar o ajustar modelos. Puede chatear sobre y analizar los datos con mayor precisión. También puede especificar orígenes para admitir las respuestas del modelo en función de la información más reciente disponible en los orígenes de datos designados o omitir el origen de datos para llamar al modelo de OpenAI de Azure sin conexión a datos.
Prerrequisitos
- suscripción a Azure: Crear una gratuita.
- Apply para acceder a Azure OpenAI. Azure OpenAI requiere el registro y actualmente solo está disponible para clientes y asociados empresariales aprobados. Consulte Acceso limitado a Azure OpenAI Service para obtener más información.
-
Crear un recurso de OpenAI Azure en el portal de Azure. Asegúrese de crear el recurso en una región compatible con un modelo compatible.
- Asegúrese de que tiene asignado al menos el rol colaborador de Cognitive Services para el recurso Azure OpenAI.
- Crear un recurso de Búsqueda de Azure AI en el portal de Azure y seguir las prácticas de best para preparar los datos en la instancia de Búsqueda de Azure AI para su uso con el Azure OpenAI en el servicio de datos.
Sugerencia
Si es la primera vez que usa Azure OpenAI en los datos, pruebe el quickstart para empezar a trabajar con el servicio.
Obtención de las credenciales
Para autenticar las solicitudes de API, necesitará la clave y el punto de conexión de los recursos de openAI y Azure Búsqueda de Azure AI.
Para el recurso Azure OpenAI:
- Vaya al recurso en el portal Azure.
- En la página del recurso, seleccione Claves y punto de conexión en el menú de navegación izquierdo. Anote sus credenciales. Usará una de las claves y el punto de conexión.
Para el recurso de Búsqueda de Azure AI:
- Vaya al recurso en el portal Azure.
- En la página Información general del recurso, anote la dirección URL.
- Seleccione Claves en el menú de navegación izquierdo. Usará una de las claves de administrador.
Problemas y limitaciones conocidos
- Solo se admite Búsqueda de Azure AI como origen de datos para usar Azure OpenAI en los datos con este conector de Power Platform.
- No se admite la llamada a funciones.
- Las imágenes no se admiten en el contenido del mensaje.
Creación de una conexión
El conector admite los siguientes tipos de autenticación:
| Clave de API | Proporcione Azure nombre de recurso de OpenAI y clave de API para acceder a la Azure OpenAI que hospeda el modelo de IA. | Todas las regiones | Compartible |
| Identidad administrada de Logic Apps | Creación de una conexión mediante una identidad administrada de LogicApps | Solo LOGICAPPS | Compartible |
| Valor predeterminado [EN DESUSO] | Esta opción solo es para conexiones anteriores sin un tipo de autenticación explícito y solo se proporciona para la compatibilidad con versiones anteriores. | Todas las regiones | No se puede compartir |
Clave de API
Identificador de autenticación: keyBasedAuth
Aplicable: Todas las regiones
Proporcione Azure nombre de recurso de OpenAI y clave de API para acceder a la Azure OpenAI que hospeda el modelo de IA.
Se trata de una conexión que se puede compartir. Si la aplicación de energía se comparte con otro usuario, también se comparte la conexión. Para obtener más información, consulte la información general de Connectors para aplicaciones de lienzo: Power Apps | Microsoft Docs
| Nombre | Tipo | Description | Obligatorio |
|---|---|---|---|
| Azure nombre de recurso de OpenAI | cuerda / cadena | Nombre del recurso de Azure OpenAI que hospeda el modelo de IA | Cierto |
| Azure clave de API de OpenAI | securestring | La clave de API para acceder al recurso de OpenAI de Azure que hospeda el modelo de IA | Cierto |
| dirección URL del punto de conexión de Azure Cognitive Search | cuerda / cadena | Dirección URL del punto de conexión de Azure Cognitive Search indexación de los datos | |
| clave de API de Azure Cognitive Search | securestring | Clave de API para acceder al punto de conexión de Azure Cognitive Search indexación de los datos |
Identidad administrada de Logic Apps
Identificador de autenticación: managedIdentityAuth
Aplicable: SOLO LOGICAPPS
Creación de una conexión mediante una identidad administrada de LogicApps
Se trata de una conexión que se puede compartir. Si la aplicación de energía se comparte con otro usuario, también se comparte la conexión. Para obtener más información, consulte la información general de Connectors para aplicaciones de lienzo: Power Apps | Microsoft Docs
| Nombre | Tipo | Description | Obligatorio |
|---|---|---|---|
| Identidad administrada de LogicApps | managedIdentity | Inicio de sesión con una identidad administrada de Logic Apps | Cierto |
| Azure nombre de recurso de OpenAI | cuerda / cadena | Nombre del recurso de Azure OpenAI que hospeda el modelo de IA | Cierto |
Valor predeterminado [EN DESUSO]
Aplicable: Todas las regiones
Esta opción solo es para conexiones anteriores sin un tipo de autenticación explícito y solo se proporciona para la compatibilidad con versiones anteriores.
Esta conexión no se puede compartir. Si la aplicación de energía se comparte con otro usuario, se pedirá a otro usuario que cree explícitamente una nueva conexión.
| Nombre | Tipo | Description | Obligatorio |
|---|---|---|---|
| Azure nombre de recurso de OpenAI | cuerda / cadena | Nombre del recurso de Azure OpenAI que hospeda el modelo de IA | Cierto |
| Azure clave de API de OpenAI | securestring | La clave de API para acceder al recurso de OpenAI de Azure que hospeda el modelo de IA | Cierto |
| dirección URL del punto de conexión de Azure Cognitive Search | cuerda / cadena | Dirección URL del punto de conexión de Azure Cognitive Search indexación de los datos | |
| clave de API de Azure Cognitive Search | securestring | Clave de API para acceder al punto de conexión de Azure Cognitive Search indexación de los datos |
Limitaciones
| Nombre | Llamadas | Período de renovación |
|---|---|---|
| Llamadas API por conexión | 1000 | 60 segundos |
Acciones
| Crea una finalización para el mensaje de chat |
Crea una finalización para el mensaje de chat |
| Obtención de varias incrustaciones |
Obtener representaciones vectoriales de una matriz determinada de entradas que los modelos y algoritmos de aprendizaje automático pueden consumir fácilmente. |
| Obtener una inserción |
Obtener una representación vectorial de una entrada determinada que los modelos y algoritmos de aprendizaje automático pueden consumir fácilmente. |
| Uso de extensiones para crear una finalización de mensajes de chat |
Uso de extensiones para crear una finalización de mensajes de chat |
Crea una finalización para el mensaje de chat
Crea una finalización para el mensaje de chat
Parámetros
| Nombre | Clave | Requerido | Tipo | Description |
|---|---|---|---|---|
|
Identificador de implementación del modelo implementado
|
deployment-id | True | string |
Identificador de implementación del modelo implementado |
|
Versión de API
|
api-version | True | string |
Versión de API |
|
temperatura
|
temperature | number |
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
Por lo general, recomendamos modificar esto o |
|
|
top_p
|
top_p | number |
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o |
|
|
flujo
|
stream | boolean |
Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, el flujo terminará con un mensaje de |
|
|
stop
|
stop | array of string |
Hasta 4 secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención. |
|
|
max_tokens
|
max_tokens | integer |
Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4096: tokens de aviso). |
|
|
presence_penalty
|
presence_penalty | number |
Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas. |
|
|
frequency_penalty
|
frequency_penalty | number |
Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente. |
|
|
logit_bias
|
logit_bias | object |
Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto JSON que asignará tokens (especificados por su id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente. |
|
|
user
|
user | string |
Un identificador único que representa al usuario final, que puede ayudar a Azure OpenAI a supervisar y detectar abusos. |
|
|
role
|
role | True | string |
Rol del autor de mensajes. |
|
contenido
|
content | True | string |
Matriz de elementos de contenido con un tipo definido, cada uno puede ser de tipo |
|
type
|
type | True | string |
Representación de los datos de configuración para una sola extensión de chat de OpenAI Azure. Esto lo usará una solicitud de finalizaciones de chat que debe usar Azure extensiones de chat de OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI. |
|
top_n_documents
|
top_n_documents | integer |
El número superior configurado de documentos que se van a presentar para la consulta configurada. |
|
|
in_scope
|
in_scope | boolean |
Si las consultas deben restringirse al uso de datos indexados. |
|
|
strictness
|
strictness | integer |
La configuración estricta del filtrado de relevancia de búsqueda. Cuanto más estricta sea, mayor será la precisión, pero una menor coincidencia de la respuesta. |
|
|
información del rol
|
role_information | string |
Proporcione instrucciones al modelo sobre cómo debe comportarse y cualquier contexto al que debe hacer referencia al generar una respuesta. Puede describir la personalidad del asistente y indicarle cómo dar formato a las respuestas. Hay un límite de 100 tokens para él y cuenta con respecto al límite total de tokens. |
|
|
nombre_del_indice
|
index_name | True | string |
Nombre del índice que se va a usar como disponible en el recurso Azure Search al que se hace referencia. |
|
campo_de_título
|
title_field | string |
Nombre del campo de índice que se va a usar como título. |
|
|
campo_url
|
url_field | string |
Nombre del campo de índice que se va a usar como dirección URL. |
|
|
campo_ruta_archivo
|
filepath_field | string |
Nombre del campo de índice que se va a usar como ruta de acceso de archivo. |
|
|
campos_de_contenido
|
content_fields | array of string |
Nombre de los campos de índice que se deben tratar como contenido. |
|
|
separador_de_campos_de_contenido
|
content_fields_separator | string |
Patrón separador que deben usar los campos de contenido. |
|
|
campos vectoriales
|
vector_fields | array of string |
Los nombres de los campos que representan datos vectoriales. |
|
|
tipo_de_consulta
|
query_type | string |
Tipo de Azure consulta de recuperación de búsqueda que se debe ejecutar al usarlo como una extensión de chat de OpenAI Azure. |
|
|
configuración semántica
|
semantic_configuration | string |
Configuración semántica adicional para la consulta. |
|
|
filtro
|
filter | string |
Filtro de búsqueda. |
|
|
type
|
type | string |
Representa los orígenes disponibles Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con la búsqueda vectorial. |
|
|
nombre_de_despliegue
|
deployment_name | True | string |
Especifica el nombre de la implementación de modelo que se va a usar para la vectorización. Esta implementación del modelo debe estar en el mismo Azure recurso de OpenAI, pero En los datos usará esta implementación de modelo a través de una llamada interna en lugar de una pública, lo que permite la búsqueda de vectores incluso en redes privadas. |
|
n
|
n | integer |
Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada. |
|
|
seed
|
seed | integer |
Si se especifica, nuestro sistema hará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con los mismos |
|
|
logprobs
|
logprobs | boolean |
Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en el |
|
|
top_logprobs
|
top_logprobs | integer |
Entero entre 0 y 5 que especifica el número de tokens más probables que se devolverán en cada posición del token, cada uno con una probabilidad de registro asociada.
|
|
|
type
|
type | string |
Establecer en |
Devoluciones
Obtención de varias incrustaciones
Obtener representaciones vectoriales de una matriz determinada de entradas que los modelos y algoritmos de aprendizaje automático pueden consumir fácilmente.
Parámetros
| Nombre | Clave | Requerido | Tipo | Description |
|---|---|---|---|---|
|
Identificador de implementación del modelo implementado
|
deployment-id | True | string |
Identificador de implementación del modelo implementado |
|
Versión de API
|
api-version | True | string |
Versión de API |
|
entrada
|
input | True | array of string |
Matriz de textos de entrada para las que se van a insertar, codificadas como una cadena. Cada cadena de entrada no debe superar los 2048 tokens de longitud |
|
user
|
user | string |
Un identificador único que representa al usuario final, que puede ayudar a Azure OpenAI a supervisar y detectar abusos. |
|
|
input_type
|
input_type | string |
Tipo de entrada de búsqueda de inserción que se va a usar. |
Devoluciones
Obtener una inserción
Obtener una representación vectorial de una entrada determinada que los modelos y algoritmos de aprendizaje automático pueden consumir fácilmente.
Parámetros
| Nombre | Clave | Requerido | Tipo | Description |
|---|---|---|---|---|
|
Identificador de implementación del modelo implementado
|
deployment-id | True | string |
Identificador de implementación del modelo implementado |
|
Versión de API
|
api-version | True | string |
Versión de API |
|
entrada
|
input | True | string |
Texto de entrada para obtener incrustaciones para, codificadas como una cadena. La cadena de entrada no debe superar los 2048 tokens de longitud |
|
user
|
user | string |
Un identificador único que representa al usuario final, que puede ayudar a Azure OpenAI a supervisar y detectar abusos. |
|
|
input_type
|
input_type | string |
Tipo de entrada de búsqueda de inserción que se va a usar. |
Devoluciones
Uso de extensiones para crear una finalización de mensajes de chat
Uso de extensiones para crear una finalización de mensajes de chat
Parámetros
| Nombre | Clave | Requerido | Tipo | Description |
|---|---|---|---|---|
|
Identificador de implementación del modelo implementado
|
deployment-id | True | string |
Identificador de implementación del modelo implementado |
|
Confirmar el identificador de implementación del modelo implementado
|
deploymentId | True | string |
Confirmar el identificador de implementación del modelo implementado |
|
Versión de API
|
api-version | True | string |
Versión de API |
|
index
|
index | integer |
Índice del mensaje en la conversación. |
|
|
role
|
role | True | string |
Rol del autor de este mensaje. |
|
destinatario
|
recipient | string |
Destinatario del mensaje en el formato del espacio de <nombres>.<operation>. Presente si y solo si el destinatario es una herramienta. |
|
|
contenido
|
content | True | string |
Contenido del mensaje |
|
end_turn
|
end_turn | boolean |
Indica si el mensaje finaliza el turno. |
|
|
type
|
type | True | string |
Tipo de origen de datos. |
|
parameters
|
parameters | object |
Parámetros que se usarán para el origen de datos en tiempo de ejecución. |
|
|
temperatura
|
temperature | number |
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
Por lo general, recomendamos modificar esto o |
|
|
top_p
|
top_p | number |
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o |
|
|
flujo
|
stream | boolean |
Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, el flujo terminará con un mensaje de |
|
|
stop
|
stop | array of string |
Tamaño mínimo de matriz de 1 y máximo de 4 |
|
|
max_tokens
|
max_tokens | integer |
Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4096: tokens de aviso). |
|
|
presence_penalty
|
presence_penalty | number |
Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas. |
|
|
frequency_penalty
|
frequency_penalty | number |
Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente. |
|
|
logit_bias
|
logit_bias | object |
Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto JSON que asignará tokens (especificados por su id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente. |
|
|
user
|
user | string |
Un identificador único que representa al usuario final, que puede ayudar a Azure OpenAI a supervisar y detectar abusos. |
Devoluciones
Respuesta de las finalizaciones de chat de extensiones.
Definiciones
Message
Un mensaje de chat.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
index
|
index | integer |
Índice del mensaje en la conversación. |
|
role
|
role | string |
Rol del autor de este mensaje. |
|
destinatario
|
recipient | string |
Destinatario del mensaje en el formato del espacio de <nombres>.<operation>. Presente si y solo si el destinatario es una herramienta. |
|
contenido
|
content | string |
Contenido del mensaje |
|
end_turn
|
end_turn | boolean |
Indica si el mensaje finaliza el turno. |
ExtensionsChatCompletionsResponse
Respuesta de las finalizaciones de chat de extensiones.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
id
|
id | string | |
|
objeto
|
object | string | |
|
creado
|
created | integer | |
|
model
|
model | string | |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults |
Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes. |
|
prompt_tokens
|
usage.prompt_tokens | integer | |
|
completion_tokens
|
usage.completion_tokens | integer | |
|
total_tokens
|
usage.total_tokens | integer | |
|
choices
|
choices | array of ExtensionsChatCompletionChoice |
ExtensionsChatCompletionChoice
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
index
|
index | integer | |
|
razón de finalización
|
finish_reason | string | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. |
|
messages
|
messages | array of Message |
Lista de mensajes devueltos por el servicio. |
contentFilterResult
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
severity
|
severity | string | |
|
filtered
|
filtered | boolean |
contentFilterResults
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterResult | |
|
violence
|
violence | contentFilterResult | |
|
hate
|
hate | contentFilterResult | |
|
self_harm
|
self_harm | contentFilterResult | |
|
error
|
error | errorBase |
promptFilterResult
Resultados de filtrado de contenido para una sola solicitud en la solicitud.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. |
promptFilterResults
Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
Productos
|
promptFilterResult |
Resultados de filtrado de contenido para una sola solicitud en la solicitud. |
errorBase
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
código
|
code | string | |
|
Mensaje
|
message | string |
errorBase_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
código
|
code | string | |
|
Mensaje
|
message | string |
contentFilterSeverityResult_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
severity
|
severity | string |
contentFilterDetectedResult_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean |
contentFilterDetectedWithCitationResult_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean | |
|
URL
|
citation.URL | string | |
|
license
|
citation.license | string |
contentFilterIdResult_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
id
|
id | string | |
|
filtered
|
filtered | boolean |
contentFilterPromptResults_2024Feb15Preview
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueos de clientes, si se ha filtrado y su id.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
error
|
error | errorBase_2024Feb15Preview | |
|
jailbreak
|
jailbreak | contentFilterDetectedResult_2024Feb15Preview |
contentFilterChoiceResults_2024Feb15Preview
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre texto de terceros y palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueos de clientes, si se ha filtrado y su id.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
error
|
error | errorBase_2024Feb15Preview | |
|
protected_material_text
|
protected_material_text | contentFilterDetectedResult_2024Feb15Preview | |
|
protected_material_code
|
protected_material_code | contentFilterDetectedWithCitationResult_2024Feb15Preview |
promptFilterResult_2024Feb15Preview
Resultados de filtrado de contenido para una sola solicitud en la solicitud.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterPromptResults_2024Feb15Preview |
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueos de clientes, si se ha filtrado y su id. |
promptFilterResults_2024Feb15Preview
Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
Productos
|
promptFilterResult_2024Feb15Preview |
Resultados de filtrado de contenido para una sola solicitud en la solicitud. |
azureChatExtensionsMessageContext_2024Feb15Preview
Representación de la información de contexto adicional disponible cuando Azure extensiones de chat de OpenAI participan en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando se usa una solicitud openAI de Azure configurada para usar una extensión coincidente.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
citations
|
citations | array of citation_2024Feb15Preview |
Resultado de la recuperación del origen de datos, que se usa para generar el mensaje del asistente en la respuesta. |
|
intención
|
intent | string |
La intención detectada del historial de chat, que se usa para pasar al siguiente turno para llevar el contexto. |
citation_2024Feb15Preview
información de cita para un mensaje de respuesta de finalizaciones de chat.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
contenido
|
content | string |
Contenido de la cita. |
|
title
|
title | string |
Título de la cita. |
|
URL
|
url | string |
Dirección URL de la cita. |
|
ruta de acceso al archivo
|
filepath | string |
Ruta de acceso del archivo de la cita. |
|
identificador_de_fragmento
|
chunk_id | string |
Identificador del fragmento de la cita. |
createChatCompletionResponse_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
id
|
id | string |
Identificador único para la finalización del chat. |
|
objeto
|
object | chatCompletionResponseObject_2024Feb15Preview |
Tipo de objeto. |
|
creado
|
created | integer |
Marca de tiempo de Unix (en segundos) de cuando se creó la finalización de chat. |
|
model
|
model | string |
Modelo usado para la finalización de chat. |
|
usage
|
usage | completionUsage_2024Feb15Preview |
Estadísticas de uso de la solicitud de finalización. |
|
system_fingerprint
|
system_fingerprint | string |
Se puede usar junto con el parámetro de solicitud |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults_2024Feb15Preview |
Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes. |
|
choices
|
choices | array of object | |
|
index
|
choices.index | integer | |
|
razón de finalización
|
choices.finish_reason | string | |
|
Mensaje
|
choices.message | chatCompletionResponseMessage_2024Feb15Preview |
Mensaje de finalización del chat generado por el modelo. |
|
content_filter_results
|
choices.content_filter_results | contentFilterChoiceResults_2024Feb15Preview |
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre texto de terceros y palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueos de clientes, si se ha filtrado y su id. |
|
logprobs
|
choices.logprobs | chatCompletionChoiceLogProbs_2024Feb15Preview |
Registre la información de probabilidad para la elección. |
chatCompletionChoiceLogProbs_2024Feb15Preview
Registre la información de probabilidad para la elección.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
contenido
|
content | array of chatCompletionTokenLogprob_2024Feb15Preview |
Lista de tokens de contenido de mensajes con información de probabilidad de registro. |
chatCompletionTokenLogprob_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
token
|
token | string |
El token. |
|
logprob
|
logprob | number |
Probabilidad de registro de este token. |
|
bytes
|
bytes | array of integer |
Lista de enteros que representan la representación de bytes UTF-8 del token. Resulta útil en instancias en las que los caracteres se representan mediante varios tokens y sus representaciones de bytes deben combinarse para generar la representación de texto correcta. Puede ser |
|
top_logprobs
|
top_logprobs | array of object |
Lista de los tokens más probables y su probabilidad de registro, en esta posición del token. En raras ocasiones, puede que se devuelvan menos |
|
token
|
top_logprobs.token | string |
El token. |
|
logprob
|
top_logprobs.logprob | number |
Probabilidad de registro de este token. |
|
bytes
|
top_logprobs.bytes | array of integer |
Lista de enteros que representan la representación de bytes UTF-8 del token. Resulta útil en instancias en las que los caracteres se representan mediante varios tokens y sus representaciones de bytes deben combinarse para generar la representación de texto correcta. Puede ser |
chatCompletionResponseMessage_2024Feb15Preview
Mensaje de finalización del chat generado por el modelo.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
role
|
role | chatCompletionResponseMessageRole_2024Feb15Preview |
Rol del autor del mensaje de respuesta. |
|
contenido
|
content | string |
Contenido del mensaje. |
|
context
|
context | azureChatExtensionsMessageContext_2024Feb15Preview |
Representación de la información de contexto adicional disponible cuando Azure extensiones de chat de OpenAI participan en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando se usa una solicitud openAI de Azure configurada para usar una extensión coincidente. |
chatCompletionResponseMessageRole_2024Feb15Preview
chatCompletionResponseObject_2024Feb15Preview
completionUsage_2024Feb15Preview
Estadísticas de uso de la solicitud de finalización.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
prompt_tokens
|
prompt_tokens | integer |
Número de tokens en el símbolo del sistema. |
|
completion_tokens
|
completion_tokens | integer |
Número de tokens en la finalización generada. |
|
total_tokens
|
total_tokens | integer |
Número total de tokens usados en la solicitud (solicitud + finalización). |
getSingleEmbeddingsResponse_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
objeto
|
object | string |
Detalles del tipo de objeto de respuesta |
|
model
|
model | string |
El nombre del modelo |
|
embedding
|
embedding | array of number |
Matriz de floats que representan las incrustaciones calculadas para las entradas especificadas |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Número de tokens usados en la entrada |
|
total_tokens
|
usage.total_tokens | integer |
El total de tokens usados |
getMultipleEmbeddingsResponse_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
objeto
|
object | string |
Detalles del tipo de objeto de respuesta |
|
model
|
model | string |
El nombre del modelo |
|
embeddings
|
embeddings | array of array |
Matriz con matrices de floats que representan las incrustaciones calculadas de la colección de cadenas de entrada |
|
items
|
embeddings | array of number | |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Número de tokens usados en la entrada |
|
total_tokens
|
usage.total_tokens | integer |
El total de tokens usados |