Editar

Compartir por


Preguntas frecuentes sobre Azure OpenAI Service

Si no puede encontrar respuestas a sus preguntas en este documento y aún necesita ayuda, consulte la Guía de opciones de soporte de los servicios de Azure AI. Azure OpenAI forma parte de los servicios de Azure AI.

Datos y privacidad

¿Se usan mis datos empresariales para entrenar cualquiera de los modelos?

Azure OpenAI no usa datos de clientes para volver a entrenar modelos. Para obtener más información, vea la Guía de seguridad, privacidad y datos de Azure OpenAI.

General

¿Admite Azure OpenAI encabezados de API personalizados? Anexamos encabezados personalizados adicionales a nuestras solicitudes de API y vemos errores HTTP 431.

Nuestras API actuales permiten hasta 10 encabezados personalizados, que se pasan a través de la canalización y se devuelven. Hemos observado que algunos clientes superan este número de encabezados, lo que provoca errores HTTP 431. No hay solución para este error, salvo reducir el volumen de la cabecera. En futuras versiones de API ya no pasaremos por encabezados personalizados. Recomendamos a los clientes que no dependan de encabezados personalizados en futuras arquitecturas de sistemas.

¿Funciona Azure OpenAI con la biblioteca de Python más reciente publicada por OpenAI (versión>=1.0)?

Azure OpenAI es compatible con la versión más reciente de la biblioteca de Python de OpenAI (versión>=1.0). Sin embargo, es importante tener en cuenta que no se admite la migración del código base mediante openai migrate y no funcionará con código destinado a Azure OpenAI.

No puedo encontrar GPT-4 Turbo Preview, ¿dónde está?

La versión preliminar de GPT-4 Turbo es el modelo gpt-4 (1106-preview). Para implementar este modelo, en Implementaciones, seleccione modelo gpt-4. Para la Versión del modelo seleccione 1106 versión preliminar. Para comprobar en qué regiones está disponible este modelo, consulte la página de modelos.

¿Azure OpenAI es compatible con GPT-4?

Azure OpenAI admite los modelos GPT-4 más recientes. Admite GPT-4 y GPT-4-32K.

¿Cómo se comparan las capacidades de Azure OpenAI con OpenAI?

Azure OpenAI Service proporciona a los clientes una inteligencia artificial de lenguaje avanzado con modelos OpenAI GPT-3, Codex y DALL-E con la promesa empresarial y de seguridad de Azure. Azure OpenAI desarrolla conjuntamente las API con OpenAI, lo que garantiza compatibilidad y una transición fluida de una a otra.

Con Azure OpenAI, los clientes obtienen las funcionalidades de seguridad de Microsoft Azure mientras ejecutan los mismos modelos que OpenAI.

¿Admite Azure OpenAI los puntos de conexión privados y de la red virtual?

Sí, como parte de los servicios de Azure AI, Azure OpenAI admite redes virtuales y puntos de conexión privados. Para más información, consulte la Guía de redes virtuales de los servicios de Azure AI

¿Los modelos de GPT-4 admiten actualmente la entrada de imagen?

No, OpenAI ha diseñado GPT-4 para que sea bidireccional, pero actualmente solo se admite la entrada y salida de texto.

¿Cómo solicitar nuevos casos de uso?

Anteriormente, el proceso para agregar nuevos casos de uso requería que los clientes vuelvan a aplicar al servicio. Ahora, vamos a publicar un nuevo proceso que le permite agregar rápidamente nuevos casos de uso a su uso del servicio. Esto sigue el proceso establecido de acceso limitado dentro de los servicios de Azure AI. Los clientes actuales pueden dar fe de todos y cada uno de los nuevos casos de uso aquí. Tenga en cuenta que esto es necesario siempre que desee utilizar el servicio para un nuevo caso de uso que no solicitó originalmente.

Estoy intentando usar inserciones y he recibido el error "InvalidRequestError: Demasiadas entradas. El número máximo de entradas es 16". ¿Cómo puedo corregirlo?

Este error se produce normalmente cuando se intenta enviar un lote de texto para insertar en una única solicitud de API como una matriz. Actualmente, Azure OpenAI solo admite matrices de incorporaciones con varias entradas para el modelo de la Versión 2 text-embedding-ada-002. Esta versión del modelo admite una matriz que consta de hasta 16 entradas por solicitud de API. La matriz puede tener hasta 8 191 tokens al usar el modelo text-embeding-ada-002 (Versión 2).

¿Dónde puedo leer sobre mejores formas de usar Azure OpenAI para obtener las respuestas que quiero del servicio?

Consulte la introducción a la ingeniería rápida. Aunque estos modelos son eficaces, su comportamiento también es muy sensible a las indicaciones que reciben del usuario. Esto hace que la construcción de la solicitud sea una habilidad importante a desarrollar. Después de completar la introducción, consulte nuestro artículo sobre mensajes del sistema.

A mi cuenta de invitado se le ha concedido acceso a un recurso de Azure OpenAI, pero no puedo acceder a ese recurso en Estudio de IA de Azure. ¿Cómo habilito el acceso?

Este es el comportamiento esperado cuando se utiliza la experiencia de inicio de sesión predeterminada para Estudio de IA de Azure.

Para acceder a Estudio de IA de Azure desde una cuenta de invitado a la que se le ha otorgado acceso a un recurso de Azure OpenAI:

  1. Abra una sesión de explorador privado y luego navegue hasta https://ai.azure.com.
  2. En lugar de ingresar inmediatamente las credenciales de su cuenta de invitado, seleccione Sign-in options
  3. Ahora seleccione Iniciar sesión en una organización
  4. Escriba el nombre de dominio de la organización a la que se ha concedido acceso a la cuenta de invitado al recurso de Azure OpenAI.
  5. Ahora, inicie sesión con sus credenciales de cuenta de invitado.

Ahora debería poder acceder al recurso a través de Estudio de IA de Azure.

Como alternativa, si ha iniciado sesión en Azure Portal desde el panel Descripción general del recurso de Azure OpenAI, puede seleccionar Ir a Estudio de IA de Azure para iniciar sesión automáticamente con el contexto organizativo adecuado.

Cuando le pregunto a GPT-4 qué modelo está ejecutando, me dice que está ejecutando GPT-3. ¿Por qué ocurre esto?

Los modelos de Azure OpenAI (incluido GPT-4) no pueden identificar correctamente qué modelo se está ejecutando es el comportamiento esperado.

¿Por qué ocurre esto?

En última instancia, el modelo realiza la siguiente predicción de token en respuesta a su pregunta. El modelo no tiene ninguna capacidad nativa para consultar qué versión del modelo se está ejecutando actualmente para responder a la pregunta. Para responder a esta pregunta, siempre puede ir aEstudio de IA de Azure>Administración>Implementaciones> y consultar la columna de nombre del modelo para confirmar qué modelo está asociado actualmente a un nombre de implementación determinado.

Las preguntas, "¿Qué modelo está ejecutando?" o "¿Cuál es el modelo más reciente de OpenAI?", producen resultados de calidad similares para preguntar al modelo cuál será el tiempo actual. Podría devolver el resultado correcto, pero puramente por casualidad. Por sí solo, el modelo no tiene información real aparte de lo que formaba parte de sus datos de entrenamiento y entrenamiento. En el caso de GPT-4, a partir de agosto de 2023 los datos de entrenamiento subyacentes solo van hasta septiembre de 2021. GPT-4 no se publicó hasta marzo de 2023, por lo que se impide que OpenAI publique una nueva versión con datos de entrenamiento actualizados o una nueva versión que esté optimizada para responder a esas preguntas específicas, es el comportamiento esperado para QUE GPT-4 responda a que GPT-3 es la versión más reciente del modelo de OpenAI.

Si desea ayudar a un modelo basado en GPT a responder con precisión a la pregunta "¿qué modelo está ejecutando?", debe proporcionar esa información al modelo a través de técnicas como la ingeniería rápida del mensaje del sistema del modelo, recuperación de generación aumentada (RAG), que es la técnica que usa Azure OpenAI en los datos en los que se inserta información actualizada en el mensaje del sistema en el momento de la consulta, o a través del ajuste preciso, donde puede ajustar versiones específicas del modelo para responder a esa pregunta de una manera determinada en función de la versión del modelo.

Para obtener más información sobre cómo se entrenan los modelos GPT y trabajar, se recomienda ver la charla de Andrej Karpathy de build 2023 en el estado de GPT.

Le he preguntado al modelo cuál es la fecha límite de sus conocimientos y me ha dado una respuesta diferente a la que aparece en la página de Azure OpenAI sobre el modelo. ¿Por qué ocurre esto?

Este es el comportamiento esperado. Los modelos no pueden responder a preguntas sobre sí mismos. Si desea saber cuál es el límite de conocimiento de los datos de entrenamiento del modelo, consulte la página de modelos.

Le hice al modelo una pregunta sobre algo que había ocurrido recientemente, antes del límite de conocimientos, y la respuesta fue incorrecta. ¿Por qué ocurre esto?

Este es el comportamiento esperado. En primer lugar, no existen garantías de que todos los eventos recientes se hayan incluido como parte de los datos de entrenamiento del modelo. E incluso cuando la información formaba parte de los datos de entrenamiento, si no se utilizan técnicas adicionales como la Generación aumentada de recuperación (RAG) para ayudar a fundamentar las respuestas del modelo, siempre existe la posibilidad de que se produzcan respuestas no fundamentadas. Las dos características de Azure OpenAI Usar sus datos como Bing Chat utilizan modelos Azure OpenAI combinados con la Generación aumentada de recuperación para ayudar a fundamentar aún más las respuestas de los modelos.

La frecuencia con la que un determinado dato aparece en los datos de entrenamiento también puede influir en la probabilidad de que el modelo responda de una determinada manera.

Si se pregunta al último modelo de la versión preliminar de GPT-4 Turbo sobre algo que ha cambiado más recientemente, como "¿Quién es el primer ministro de Nueva Zelanda?", es probable que se obtenga una respuesta fabricada Jacinda Ardern. Sin embargo, preguntando al modelo "¿Cuándo dejó Jacinda Ardern de ser primer ministro?" Suele dar una respuesta precisa que demuestra el conocimiento de los datos de entrenamiento hasta, al menos, enero de 2023.

Por tanto, aunque es posible sondear el modelo con preguntas para adivinar su límite de conocimiento de los datos de entrenamiento, la página del modelo es el mejor lugar para comprobar el límite de conocimiento de un modelo.

¿Dónde puedo acceder a la información de precios de los modelos heredados que ya no están disponibles para las nuevas implementaciones?

La información de precios heredada está disponible a través de un archivo PDF descargable. Para todos los demás modelos, consulte la página oficial de precios.

¿Cómo puedo corregir InternalServerError - 500- No se pudo crear la finalización a medida que el modelo generó una salida Unicode no válida?

Para minimizar la aparición de estos errores, reduzca la temperatura de los mensajes a menos de 1 y asegúrese de que usa un cliente con lógica de reintento. Volver a adjuntar la solicitud suele dar lugar a una respuesta correcta.

Hemos observado cargos asociados a llamadas API que no se pudieron completar con el código de estado 400. ¿Por qué se producen errores en las llamadas API que generan un cargo?

Si el servicio realiza el procesamiento, se le cobrará incluso si el código de estado no es correcto (no 200). Ejemplos comunes de esto son, un error 400 debido a un filtro de contenido o un límite de entrada, o un error 408 debido a un tiempo de espera. Los cargos también se producirán cuando se recibe un status 200 con un finish_reason de content_filter. En este caso, la solicitud no tuvo ninguna incidencia, pero se detectó la finalización generada por el modelo para infringir las reglas de filtrado de contenido dando lugar a que se filtre la finalización. Si el servicio no realiza el procesamiento, no se le cobrará. Por ejemplo, un error 401 debido a la autenticación o un error 429 debido a superar el límite de velocidad.

Obtención de acceso a Azure OpenAI Service

¿Cómo puedo acceder a Azure OpenAI?

No se requiere un formulario de registro de acceso limitado para acceder a la mayoría de los modelos de Azure OpenAI. Obtenga más información en la página Acceso limitado de Azure OpenAI.

Más información y dónde formular preguntas

¿Dónde se pueden leer las actualizaciones más recientes de Azure OpenAI?

Para obtener actualizaciones mensuales, vea nuestra página de novedades.

¿Dónde se puede obtener formación para empezar a aprender y desarrollar mis aptitudes en torno a Azure OpenAI?

¿Dónde se pueden publicar preguntas y ver respuestas a otras preguntas comunes?

¿Dónde se puede acudir para obtener servicio de atención al cliente de Azure OpenAI?

Azure OpenAI forma parte de los servicios de Azure AI. Puede obtener información sobre todas las opciones de soporte para los servicios de Azure AI en la guía de opciones de soporte y ayuda.

Modelos y ajuste

¿Qué modelos hay disponibles?

Consulte la guía de disponibilidad del modelo de Azure OpenAI.

¿Dónde se puede averiguar en qué región está disponible un modelo?

Consulte la guía de disponibilidad del modelo de Azure OpenAI para ver la disponibilidad regional.

¿Cuáles son los Acuerdos de Nivel de Servicio (Acuerdos de Nivel de Servicio) en Azure OpenAI?

Ofrecemos un Acuerdo de Nivel de Servicio de disponibilidad para todos los recursos y un Acuerdo de Nivel de Servicio de latencia para implementaciones administradas aprovisionadas. Para obtener más información sobre el SLA para Azure OpenAI Service, consulte la página Acuerdos de nivel de servicio (SLA) para servicios en línea.

¿Cómo se habilita el ajuste preciso? La opción para crear un modelo personalizado en Estudio de IA de Azure está atenuada.

Para acceder correctamente al ajuste preciso, necesita Colaborador de OpenAI de Cognitive Services asignado. Incluso alguien con permisos de administrador de servicios de alto nivel necesitaría esta cuenta establecida explícitamente para acceder al ajuste preciso. Para más información, consulte las instrucciones de control de acceso basado en rol.

¿Cuál es la diferencia entre un modelo base y un modelo ajustado?

Un modelo base es un modelo que no se ha personalizado ni ajustado para un caso de uso específico. Los modelos ajustados son versiones personalizadas de modelos base en los que los pesos de un modelo se entrenan en un conjunto único de mensajes. Los modelos ajustados permiten lograr mejores resultados en un mayor número de tareas sin necesidad de proporcionar ejemplos detallados para el aprendizaje en contexto como parte del mensaje de finalización. Para obtener más información, revise nuestra guía de ajuste.

¿Cuál es el número máximo de modelos ajustados que se pueden crear?

100

¿Por qué se ha eliminado la implementación de modelo ajustado?

Si se implementa un modelo personalizado (ajustado) durante más de 15 días durante los cuales no se realizan llamadas de finalización ni de finalización de chat, la implementación se elimina automáticamente (y no se incurre en más cargos de alojamiento para esa implementación). El modelo personalizado subyacente permanece disponible y se puede volver a implementar en cualquier momento. Para obtener más información, consulte el artículo de instrucciones.

¿Cómo implemento un modelo con la API de REST?

Actualmente hay dos API de REST diferentes que permiten la implementación de modelo. Para obtener las funciones de implementación de modelos más recientes, como la capacidad de especificar una versión del modelo durante la implementación para modelos como text-embedding-ada-002 Versión 2, utilice la llamada API de REST Implementaciones: crear o actualizar.

¿Puedo usar la cuota para aumentar el límite máximo de tokens de un modelo?

No, la cuota de asignación de fichas por minuto (TPM) no está relacionada con el límite máximo de fichas de entrada de un modelo. Los límites del token de entrada del modelo se definen en la tabla de modelos y no se ven afectados por los cambios realizados en TPM.

GPT-4 Turbo con Vision

¿Puedo ajustar las funcionalidades de imagen en GPT-4?

No, no se admite la optimización de las funcionalidades de imagen de GPT-4 en este momento.

¿Puedo usar GPT-4 para generar imágenes?

No, puede usar dall-e-3 para generar imágenes y gpt-4-vision-preview para comprender las imágenes.

¿Qué tipo de archivos puedo cargar?

Actualmente se admite PNG (.png), JPEG (.jpeg y .jpg), WEBP (.webp) y GIF no animado (.gif).

¿Hay un límite para el tamaño de la imagen que puedo cargar?

Sí, se restringen las cargas de imágenes a 20 MB por imagen.

¿Puedo eliminar una imagen que he cargado?

No, se eliminarán automáticamente la imagen después de que el modelo lo haya procesado.

¿Cómo funcionan los límites de velocidad para GPT-4 Turbo con Visión?

Se procesan imágenes en el nivel de token, por lo que cada imagen que procesamos cuenta para el límite de tokens por minuto (TPM). Consulte la sección Tokens de imagen de la información general para obtener más información sobre la fórmula que se usa para determinar el recuento de tokens por imagen.

¿Puede GPT-4 Turbo con Visión comprender los metadatos de imágenes?

No, el modelo no recibe metadatos de imagen.

¿Qué ocurre si mi imagen no está clara?

Si una imagen es ambigua o no está clara, el modelo hará lo mejor para interpretarla. Sin embargo, los resultados pueden ser menos precisos. Una buena regla general es que si un humano promedio no puede ver la información en una imagen en las resoluciones utilizadas en el modo de baja/alta resolución, entonces el modelo tampoco podrá.

¿Cuáles son las limitaciones conocidas de GPT-4 Turbo con Visión?

Consulte la sección limitaciones de la guía de conceptos de GPT-4 Turbo con Visión.

Sigo recibiendo respuestas truncadas cuando uso modelos DE VISIÓN GPT-4 Turbo. ¿Por qué está sucediendo?

De manera predeterminada, GPT-4 vision-preview y GPT-4 turbo-2024-04-09 tienen un max_tokens valor de 16. Dependiendo de la solicitud, este valor suele ser demasiado bajo y puede provocar respuestas truncadas. Para resolver este problema, pase un valor mayor max_tokens como parte de las solicitudes de API de finalizaciones de chat. GPT-4o tiene como valor predeterminado 4096 max_tokens.

Asistentes

¿Almacena algún dato usado en la Assistants API?

Sí. A diferencia de la API de finalizaciones de chat, Azure OpenAI Assistants es una API con estado, lo que significa que conserva los datos. Hay dos tipos de datos almacenados en la Assistants API:

  • Entidades con estado: subprocesos, mensajes y ejecuciones creados durante el uso de Asisstants.
  • Archivos: cargados durante la configuración de Asisstants o como parte de un mensaje.

¿Dónde se almacenan estos datos?

Los datos se almacenan en una cuenta de almacenamiento segura administrada por Microsoft que está separada de forma lógica.

¿Cuánto tiempo se almacenan estos datos?

Todos los datos usados se conservan en este sistema a menos que elimine explícitamente estos datos. Use la función delete con el identificador del subproceso que quiere eliminar. Al borrar la opción Ejecutar en el área de juegos de Asisstants no se eliminan los subprocesos; sin embargo, si se eliminan mediante la función delete, no se mostrarán en la página de subprocesos.

¿Puedo traer mi propio almacén de datos para usarlo con Asisstants?

No. Actualmente, Asisstants solo admite archivos locales cargados en el almacenamiento administrado por Asisstants. No puede usar la cuenta de almacenamiento privada con Asisstants.

¿Admiten los asistentes el cifrado de claves administradas por el cliente (CMK)?

Hoy se admite CMK para subprocesos y archivos en asistentes. Consulte la Página de novedades de las regiones disponibles para esta característica.

¿Microsoft usa mis datos para modelos de entrenamiento?

No. Los datos que no se usan para Microsoft no se usan para modelos de entrenamiento. Consulte la documentación de Inteligencia artificial responsable para más información.

¿Dónde se almacenan los datos geográficamente?

Los puntos de conexión de Azure OpenAI Assistants son regionales y los datos se almacenan en la misma región que el punto de conexión. Para más información, consulte la documentación de residencia de datos de Azure.

¿Cómo se cobra por Assistants?

  • Costo de inferencia (entrada y salida) del modelo base que usa para cada asistente (por ejemplo, gpt-4-0125). Si ha creado varias instancias de Assistants, se le cobrará por el modelo base asociado a cada instancia.
  • Si ha habilitado la herramienta de intérprete de código. Por ejemplo, si la instancia de Assistants llama al intérprete de código simultáneamente en dos subprocesos diferentes, esto crearía dos sesiones de intérprete de código, cada una de las cuales se cobraría. Cada sesión está activa de forma predeterminada durante una hora, lo que significa que solo pagaría esta tarifa una vez si el usuario sigue dando instrucciones al intérprete de código en el mismo subproceso durante una hora.
  • La búsqueda de archivos se factura en función del almacenamiento vectorial usado.

Consulte la página de preciospara obtener más información.

¿Hay algún precio o cuota adicional para usar Assistants?

No. Todas las cuotas se aplican al uso de modelos con Assistants.

¿Admite la Assistants API modelos que no son de Azure OpenAI?

La Assistants API solo admite modelos de Azure OpenAI.

¿La Assistants API está disponible con carácter general?

Assistants API se encuentra actualmente en versión preliminar pública. Manténgase informado de nuestras últimas actualizaciones de productos visitando regularmente nuestra página de novedades.

¿Hay otros ejemplos o recursos que pueda usar para obtener información sobre los asistentes?

Consulte los artículos sobre conceptos, inicio rápido y procedimientos para obtener información sobre cómo empezar a trabajar y usar Assistants. También puede consultar ejemplos de código de Azure OpenAI Assistants en GitHub.

Aplicación web

¿Cómo puedo personalizar mi aplicación web publicada?

Puede personalizar la aplicación web publicada en Azure Portal. El código fuente de la aplicación web publicada está disponible en GitHub, donde puede encontrar información sobre cómo cambiar el front-end de la aplicación, así como instrucciones para compilar e implementar la aplicación.

¿Se sobrescribirá mi aplicación web cuando vuelva a implementar la aplicación desde Azure AI Studio?

El código de la aplicación no se sobrescribirá al actualizar la aplicación. La aplicación se actualizará para usar el recurso de Azure OpenAI, índice de Búsqueda de Azure AI (si usa Azure OpenAI en sus datos) y la configuración del modelo seleccionada en Estudio de IA de Azure sin ningún cambio en la apariencia o la funcionalidad.

Uso de los datos

¿Qué es Azure OpenAI en sus datos?

Azure OpenAI en sus datos es una característica de Azure OpenAI Services que ayuda a las organizaciones a generar información personalizada, contenido y búsquedas mediante sus orígenes de datos designados. Funciona con las funcionalidades de los modelos de OpenAI en Azure OpenAI para proporcionar respuestas más precisas y relevantes a las consultas de los usuarios en lenguaje natural. Azure OpenAI en sus datos se puede integrar con las aplicaciones y flujos de trabajo existentes del cliente, ofrece información sobre los indicadores clave de rendimiento y puede interactuar con los usuarios sin problemas.

¿Cómo puedo acceder a Azure OpenAI en sus datos?

Todos los clientes de Azure OpenAI pueden usar Azure OpenAI en sus datos a través de Azure AI Studio y la API de REST.

¿Qué orígenes de datos admite Azure OpenAI en los datos?

Azure OpenAI en sus datos admite la ingesta de Azure AI Search, Azure Blob Storage y la carga de archivos locales. Puede obtener más información sobre Azure OpenAI en sus datos en el artículo conceptual e inicio rápido.

¿Cuánto cuesta usar Azure OpenAI en sus datos?

Al usar Azure OpenAI en sus datos, se incurre en costos al usar Azure AI Search, Azure Blob Storage, Azure Web App Service, búsqueda semántica y modelos de OpenAI. No hay ningún costo adicional por usar la característica "sus datos" en Azure AI Studio.

¿Cómo puedo personalizar o automatizar el proceso de creación de índices?

Puede preparar el índice usted mismo mediante un script proporcionado en GitHub. El uso de este script creará un índice de Búsqueda de Azure AI con toda la información necesaria para usar mejor los datos, con los documentos divididos en fragmentos administrables. Consulte el archivo Léame con el código de preparación de datos para más información sobre cómo ejecutarlo.

¿Cómo puedo actualizar mi índice?

Puede programar una actualización automática del índice o cargar datos adicionales en el contenedor de blobs de Azure y usarlos como origen de datos al crear un nuevo índice. El nuevo índice incluirá todos los datos del contenedor.

¿Qué tipos de archivo admite Azure OpenAI en sus datos?

Consulte Uso de los datos para obtener más información sobre los tipos de archivo admitidos.

¿También se usa la inteligencia artificial responsable en Azure OpenAI en sus datos?

Sí, Azure OpenAI en sus datos forma parte del servicio Azure OpenAI y funciona con los modelos disponibles en Azure OpenAI. Las características de filtrado de contenido y supervisión de abusos de Azure OpenAI siguen aplicándose. Para más información, consulte la introducción a las prácticas de inteligencia artificial responsable para los modelos de Azure OpenAI y la nota de transparencia de Azure OpenAI para obtener instrucciones adicionales sobre el uso de Azure OpenAI en sus datos de forma responsable.

¿Hay un límite de tókenes en el mensaje del sistema?

Sí, el límite de tokens en el mensaje del sistema es 400. Si el mensaje del sistema tiene más de 400 tokens, el resto de los tokens más allá de los primeros 400 se ignorarán. Esta limitación solo se aplica a Azure OpenAI en la característica de datos.

¿Azure OpenAI en los datos admite llamadas a funciones?

Azure OpenAI en los datos no admite llamadas a funciones en este momento.

¿Es necesario que el lenguaje de consulta y el idioma del origen de datos sean los mismos?

Debe enviar consultas en el mismo idioma de los datos. Los datos pueden estar en cualquiera de los idiomas admitidos por Azure AI Search.

Si la búsqueda semántica está habilitada para mi recurso de Búsqueda de Azure AI, ¿se aplicará automáticamente a Azure OpenAI en los datos de Estudio de IA de Azure?

Al seleccionar "Azure AI Search" como origen de datos, puede optar por aplicar la búsqueda semántica. Si selecciona "Azure Blob Container" o "Cargar archivos" como origen de datos, puede crear el índice como de costumbre. Después, volvería a ingerir los datos con la opción "Búsqueda de Azure AI" para seleccionar el mismo índice y aplicar la búsqueda semántica. A continuación, estará listo para chatear en los datos con la búsqueda semántica aplicada.

¿Cómo puedo agregar inserciones vectoriales al indexar mis datos?

Al seleccionar "Contenedor de blobs de Azure", "Azure AI Search" o "Cargar archivos" como origen de datos, también puede seleccionar una implementación de modelo de inserción de Ada que se usará al ingerir los datos. Esto creará un índice de Azure AI Search con incrustaciones vectoriales.

¿Por qué se produce un error en la creación de índices después de agregar un modelo de inserción?

Es posible que se produzca un error en la creación de índices al agregar incrustaciones al índice si el límite de velocidad en la implementación de modelo de inserción de Ada es demasiado bajo o si tiene un conjunto muy grande de documentos. Puede usar este script proporcionado en GitHub para crear el índice con incrustaciones manualmente.

Compromiso de derechos de autor del cliente

El Compromiso de derechos de autor del cliente es una disposición que se incluirá en los términos del producto de Microsoft del 1 de diciembre de 2023, que describe la obligación de Microsoft de defender a los clientes frente a ciertas reclamaciones de propiedad intelectual de terceros relacionadas con el contenido de salida. Si el asunto de la notificación es Contenido de salida generado desde Azure OpenAI Service (o cualquier otro producto bajo cobertura que permita a los clientes configurar los sistemas de seguridad), para recibir cobertura, el cliente debe haber implementado todas las mitigaciones requeridas por la documentación de Azure OpenAI Service en la oferta que entregó el contenido de salida. Las mitigaciones necesarias se documentan aquí y se actualizan continuamente. En el caso de los nuevos servicios, características, modelos o casos de uso, se publicarán nuevos requisitos de CCC y surtirán efecto al lanzamiento de dicho servicio, característica, modelo o caso de uso. De lo contrario, los clientes tendrán seis meses a partir del momento de la publicación para implementar nuevas mitigaciones para mantener la cobertura bajo el CCC. Si un cliente licita una reclamación, será necesario que demuestre el cumplimiento de los requisitos pertinentes. Estas mitigaciones son necesarias para los productos bajo cobertura que permiten a los clientes configurar los sistemas de seguridad, incluido Azure OpenAI Service; no afectan a la cobertura para los clientes que utilizan otros servicios bajo cobertura.