Compartir por


Novedades de Azure OpenAI Service

En este artículo se proporciona un resumen de las versiones más recientes y las actualizaciones de documentación principales de Azure OpenAI.

Octubre de 2024

Nuevo tipo de implementación estándar de la zona de datos

Las implementaciones estándar de zona de datos están disponibles en el mismo recurso de Azure OpenAI que todos los demás tipos de implementación de Azure OpenAI, pero permiten aprovechar la infraestructura global de Azure para dirigir dinámicamente el tráfico al centro de datos dentro de la zona de datos definida por Microsoft con la mejor disponibilidad para cada solicitud. La zona de datos estándar proporciona cuotas por defecto más altas que nuestros tipos de implementación basados en la geografía de Azure. Las implementaciones estándar de la zona de datos se admiten en los modelos gpt-4o-2024-08-06, gpt-4o-2024-05-13 y gpt-4o-mini-2024-07-18.

Para obtener más información, consulte la guía de tipos de implementación.

Disponibilidad general de Global Batch

El lote global de Azure OpenAI ya está disponible con carácter general.

La API de Batch de Azure OpenAI está diseñada para controlar las tareas de procesamiento a gran escala y de alto volumen de forma eficaz. Procese grupos asincrónicos de solicitudes con cuota independiente, con una solución alternativa de destino de 24 horas, con un costo del 50 % menos que el estándar global. Con el procesamiento por lotes, en lugar de enviar una solicitud cada vez, se envía un gran número de solicitudes en un único archivo. Las solicitudes por lotes globales tienen una cuota de tokens en cola independiente, lo que evita cualquier interrupción de las cargas de trabajo en línea.

Los siguientes son algunos de los principales casos de uso:

  • Procesamiento de datos a gran escala: analice rápidamente conjuntos de datos extensos en paralelo.

  • Generación de contenido: cree grandes volúmenes de texto, como descripciones de productos o artículos.

  • Revisión y resumen de documentos: automatice la revisión y el resumen de documentos largos.

  • Automatización del soporte al cliente: controle numerosas consultas simultáneamente para respuestas más rápidas.

  • Extracción y análisis de datos: extraiga y analice información de grandes cantidades de datos no estructurados.

  • Tareas de procesamiento de lenguaje natural (NLP): realice tareas como análisis de sentimiento o traducción en grandes conjuntos de datos.

  • Marketing y personalización: genere contenido personalizado y recomendaciones a escala.

Para obtener más información sobre cómo empezar a trabajar con implementaciones de lotes globales.

Acceso limitado a los modelos o1-preview y o1-mini

Los modelos o1-preview y o1-mini ya están disponibles para el acceso a la API y la implementación del modelo. El registro es obligatorio y se concederá acceso en función de los criterios de idoneidad de Microsoft.

Solicitud de acceso: aplicación de modelo de acceso limitado

Los clientes que ya se han aprobado y tienen acceso al modelo desde el área de juegos de acceso anticipado no necesitan volver a solicitarlo, se le concederá automáticamente acceso a la API. Una vez que se ha concedido el acceso, deberá crear una implementación para cada modelo.

Compatibilidad de la API:

Se ha agregado compatibilidad con los modelos de la serie o1 en la versión 2024-09-01-preview de la API.

El parámetro max_tokens ha quedado en desuso y se ha reemplazado por el nuevo parámetro max_completion_tokens. Los modelos de la serie o1 solo funcionarán con el parámetro max_completion_tokens.

Disponibilidad regional:

Hay modelos disponibles para la implementación estándar y global en las regiones Este de EE. UU. 2 y Centro de Suecia para clientes aprobados.

Nueva versión preliminar pública de la API GPT-4o Realtime para voz y audio

El audio GPT-4o de Azure OpenAI forma parte de la familia de modelos GPT-4o que admite interacciones de conversación de "entrada y salida de voz" de baja latencia. La API de audio GPT-4o realtime está diseñada para controlar interacciones de conversación en tiempo real y de baja latencia, lo que la convierte en una excelente opción para los casos de uso que implican interacciones en vivo entre un usuario y un modelo, como agentes de asistencia al cliente, asistentes de voz y traductores en tiempo real.

El modelo gpt-4o-realtime-preview está disponible para implementaciones globales en las regiones Este de EE. UU. 2 y Centro de Suecia.

Para más información,vea la documentación de audio en tiempo real de GPT-4o.

Actualizaciones de soporte técnico de lotes globales

Los lotes globales ahora admiten GPT-4o (2024-08-06). Para más información, vea la guía de introducción de lotes globales.

Septiembre de 2024

Actualizaciones de la experiencia de usuario de Azure OpenAI Studio

El 19 de septiembre, cuando acceda a Azure OpenAI Studio empezará a no ver de manera predeterminada la interfaz de usuario del estudio heredado. En caso necesario, podrá volver a la experiencia anterior usando el botón de alternancia Cambiar al aspecto anterior de la barra superior de la interfaz de usuario durante las próximas semanas. Si vuelve a cambiar a la interfaz de usuario heredada de Studio, será de gran ayuda que rellene el formulario de comentarios para hacernos saber por qué. Estamos supervisando activamente estos comentarios para mejorar la nueva experiencia.

Implementaciones aprovisionadas de GPT-4o 2024-08-06

GPT-4o 2024-08-06 ya está disponible para implementaciones aprovisionadas en el Este de EE. UU., Este de EE. UU. 2, Centro-norte de EE. UU. y Centro de Suecia. También está disponible para implementaciones aprovisionadas globales.

Para obtener la información más reciente sobre la disponibilidad del modelo, consulte la página de modelos.

NUEVO tipo de implementación aprovisionado global

Las implementaciones globales están disponibles en los mismos recursos de Azure OpenAI que los tipos de implementación no globales, pero permiten aprovechar la infraestructura global de Azure para enrutar dinámicamente el tráfico al centro de datos con la mejor disponibilidad para cada solicitud. Las implementaciones aprovisionadas globales proporcionan una capacidad de procesamiento de modelos reservada para un rendimiento alto y predecible mediante la infraestructura global de Azure. Las implementaciones aprovisionadas globales se admiten en modelos gpt-4o-2024-08-06 y gpt-4o-mini-2024-07-18 .

Para obtener más información, consulte la guía de tipos de implementación.

NUEVOS modelos o1-versión preliminar y o1-mini disponibles para acceso limitado

Los modelos o1-preview y o1-mini de Azure OpenAI están diseñados para abordar tareas de razonamiento y resolución de problemas con un mayor foco y capacidad. Estos modelos invierten más tiempo en procesar y comprender la solicitud del usuario, lo que hace que sean excepcionalmente fuertes en áreas como ciencia, codificación y matemáticas en comparación con las iteraciones anteriores.

Funcionalidades clave de la serie de datos o1

  • Generación de código compleja: capaz de generar algoritmos y controlar tareas avanzadas de codificación para admitir a los desarrolladores.
  • Solución avanzada de problemas: ideal para sesiones completas de lluvia de ideas y abordar desafíos multifacéticos.
  • Comparación compleja de documentos: perfecto para analizar contratos, archivos de casos o documentos legales para identificar diferencias sutiles.
  • Instrucción Siguiente y Administración de flujos de trabajo: especialmente eficaz para administrar flujos de trabajo que requieren contextos más cortos.

Variantes del modelo

  • o1-preview: o1-preview es más capaz de los o1 modelos de serie de datos.
  • o1-mini: o1-mini es el más rápido y barato de los o1 modelos de serie de datos.

Versión del modelo: 2024-09-12

Solicitud de acceso: aplicación de modelo de acceso limitado

Limitaciones

Los modelos de la serie o1 están actualmente en versión preliminar y no incluyen algunas características disponibles en otros modelos, como la comprensión de imágenes y las salidas estructuradas que están disponibles en el modelo GPT-4o más reciente. Para muchas tareas, los modelos GPT-4o disponibles con carácter general todavía pueden ser aún más adecuados.

Seguridad

OpenAI ha incorporado medidas de seguridad adicionales en los modelos de o1, incluidas nuevas técnicas para ayudar a los modelos a rechazar solicitudes no seguras. Estos avances hacen que la serie de datos o1 algunos de los modelos más sólidos estén disponibles.

Disponibilidad

Los o1-preview y o1-mini están disponibles en la región Este de EE. UU. 2 para acceso limitado a través del área de juegos de acceso anticipado de AI Studio. El procesamiento de datos para los modelos o1 puede producirse en una región diferente de la que están disponibles para su uso.

Para probar los modelos de o1-preview y o1-mini en el área de juegos de acceso anticipado se requiere el registro y se concederá acceso en función de los criterios de idoneidad de Microsoft.

Solicitud de acceso: aplicación de modelo de acceso limitado

Una vez concedido el acceso, deberá hacer lo siguiente:

  1. Desplácese a https://ai.azure.com/resources y seleccione un recurso en la región eastus2. Si no tiene un recurso de Azure OpenAI en esta región, deberá crear uno.
  2. Una vez seleccionado el recurso eastus2 Azure OpenAI, en el panel superior izquierdo de Áreas de juegos seleccione Área de juegos de acceso anticipado (versión preliminar).

Agosto de 2024

Salidas estructuradas de GPT-4o 2024-08-06

Implementaciones aprovisionadas de GPT-4o mini

GPT-4o mini ya está disponible para las implementaciones aprovisionadas en Este de Canadá, Este de EE. UU., Este de EE. UU. 2, Centro-norte de EE. UU. y Centro de Suecia.

Para obtener la información más reciente sobre la disponibilidad del modelo, consulte la página de modelos.

Ajuste preciso de GPT-4o (versión preliminar pública)

El ajuste preciso de GPT-4o ahora está disponible para Azure OpenAI en versión preliminar pública en Centro-norte de EE. UU. y Centro de Suecia.

Para obtener más información, consulte nuestra entrada de blog.

Nueva versión preliminar de la API

La versión de la API 2024-07-01-preview es la versión más reciente de la API de creación e inferencia del plan de datos. Reemplaza la versión 2024-05-01-preview de la API y agrega compatibilidad con:

Para obtener más información, consulte nuestra documentación de referencia

Disponibilidad regional de GPT-4o mini

  • GPT-4o mini está disponible para la implementación estándar y global en las regiones Este de EE. UU. y Centro de Suecia.
  • GPT-4o mini está disponible para la implementación global por lotes en las regiones Este de EE. UU., Centro de Suecia y Oeste de EE. UU.

Guía de evaluaciones

Modelo GPT-4o más reciente disponible en el área de juegos de acceso anticipado (versión preliminar)

El 6 de agosto de 2024, OpenAI anunció la última versión de su modelo GPT-4o insignia 2024-08-06. GPT-4o 2024-08-06 tiene todas las funcionalidades de la versión anterior, así como:

  • Una capacidad mejorada para admitir salidas estructuradas complejas.
  • Los tokens de salida máximos se han aumentado de 4096 a 16 384.

Los clientes de Azure pueden probar GPT-4o 2024-08-06 hoy en el nuevo área de juegos de acceso anticipado de AI Studio (versión preliminar).

A diferencia del área de juegos de acceso anticipado anterior, para el área de juegos de acceso anticipado de AI Studio (versión preliminar) no es necesario que tenga un recurso en una región específica.

Nota:

Los mensajes y finalizaciones realizados desde el área de juegos de acceso anticipado (versión preliminar) se pueden procesar en cualquier región de Azure OpenAI y actualmente están sujetas a un límite de 10 por minuto por cada suscripción de Azure. Este límite podría cambiar en el futuro.

La supervisión del abuso de Azure OpenAI Service está habilitada para todos los usuarios del área de juegos de acceso anticipado, incluso si se aprueban para su modificación. Los filtros de contenido predeterminados están habilitados y no se pueden modificar.

Para probar GPT-4o 2024-08-06, inicie sesión en el área de juegos de acceso anticipado de Azure AI (versión preliminar) mediante este vínculo.

Las implementaciones de lotes globales ya están disponibles

La API de Batch de Azure OpenAI está diseñada para controlar las tareas de procesamiento a gran escala y de alto volumen de forma eficaz. Procese grupos asincrónicos de solicitudes con cuota independiente, con una solución alternativa de destino de 24 horas, con un costo del 50 % menos que el estándar global. Con el procesamiento por lotes, en lugar de enviar una solicitud cada vez, se envía un gran número de solicitudes en un único archivo. Las solicitudes por lotes globales tienen una cuota de tokens en cola independiente, lo que evita cualquier interrupción de las cargas de trabajo en línea.

Los siguientes son algunos de los principales casos de uso:

  • Procesamiento de datos a gran escala: analice rápidamente conjuntos de datos extensos en paralelo.

  • Generación de contenido: cree grandes volúmenes de texto, como descripciones de productos o artículos.

  • Revisión y resumen de documentos: automatice la revisión y el resumen de documentos largos.

  • Automatización del soporte al cliente: controle numerosas consultas simultáneamente para respuestas más rápidas.

  • Extracción y análisis de datos: extraiga y analice información de grandes cantidades de datos no estructurados.

  • Tareas de procesamiento de lenguaje natural (NLP): realice tareas como análisis de sentimiento o traducción en grandes conjuntos de datos.

  • Marketing y personalización: genere contenido personalizado y recomendaciones a escala.

Para obtener más información sobre cómo empezar a trabajar con implementaciones de lotes globales.

Julio de 2024

GPT-4o mini ya está disponible para un ajuste preciso

El ajuste preciso de GPT-4o mini ahora está disponible en versión preliminar pública en centro de Suecia y en centro-norte de EE. UU.

Ahora se factura la herramienta de búsqueda de archivos de asistentes

La herramienta de búsqueda de archivos para asistentes ahora tiene cargos adicionales por uso. Consulte la página de precios para más información.

Modelo mini GPT-4o disponible para la implementación

GPT-4o mini es el último modelo de Azure OpenAI por primera vez anunciado el 18 de julio de 2024:

"GPT-4o mini permite a los clientes ofrecer aplicaciones impresionantes a un menor costo con una velocidad vertiginosa. GPT-4o mini es significativamente más inteligente que GPT-3.5 Turbo (obtiene una puntuación del 82 % en la medición de la comprensión lingüística en multitarea masiva [MMLU] frente al 70 %) y es más de un 60 % más barato. El modelo ofrece una ventana contextual ampliada de 128 000 e integra las funciones multilingües mejoradas de GPT-4o, lo que aporta mayor calidad a idiomas de todo el mundo."

El modelo está disponible actualmente para la implementación estándar y global en la región Este de EE. UU.

Para obtener información sobre la cuota del modelo, consulte la página de cuota y límites y para obtener la información más reciente sobre la disponibilidad del modelo, consulte la página de modelos.

Nueva directiva de filtrado de contenido predeterminada de IA responsable

La nueva directiva de filtrado de contenido predeterminada DefaultV2 ofrece las mitigaciones de seguridad y seguridad más recientes para la serie de modelos GPT (texto), entre las que se incluyen:

  • Aviso de escudos para ataques de jailbreak en mensajes de usuario (filtro),
  • Detección de materiales protegidos para texto (filtro) en finalizaciones del modelo
  • Detección de materiales protegidos para código (anotación) en finalizaciones de modelos

Aunque no hay ningún cambio en los filtros de contenido de los recursos e implementaciones existentes (las configuraciones de filtrado de contenido predeterminadas o personalizadas permanecen sin cambios), los nuevos recursos y las implementaciones de GPT heredarán automáticamente la nueva directiva de filtrado de contenido DefaultV2. Los clientes tienen la opción de cambiar entre los valores predeterminados de seguridad y crear configuraciones de filtrado de contenido personalizadas.

Consulte nuestra Documentación de directiva de seguridad predeterminada para obtener más información.

Nueva versión de la API de disponibilidad general

La versión de api es la versión 2024-06-01 más reciente de la API de inferencia del plano de datos de disponibilidad general. Reemplaza la versión 2024-02-01 de la API y agrega compatibilidad con:

  • parámetros de las inserciones encoding_format y dimensions.
  • parámetros de las finalizaciones de chat logprobs y top_logprobs.

Consulte la documentación de referencia de inferencia del plano de datos para obtener más información.

Expansión de regiones disponibles para implementaciones estándar globales de gpt-4o

GPT-4o ya está disponible para las implementaciones estándar globales en:

  • australiaeast
  • brazilsouth
  • canadaeast
  • estado
  • eastus2
  • Git de francecentral
  • germanywestcentral
  • japaneast
  • koreacentral
  • northcentralus
  • norwayeast
  • polandcentral
  • southafricanorth
  • southcentralus
  • southindia
  • suecia central
  • norte de suiza
  • uksouth
  • westeurope
  • westus
  • westus3

Para obtener información sobre la cuota estándar global, consulte la página cuota y límites.

Junio de 2024

Actualizaciones de fecha de retirada

  • Fecha de retirada actualizada de gpt-35-turbo 0301 a no antes del 1 de octubre de 2024.
  • Fecha de retirada actualizada de gpt-35-turbo y gpt-35-turbo-16k 0613 al 1 de octubre de 2024.
  • Fecha de desuso actualizada de gpt-4 y gpt-4-32k 0314 al 1 de octubre de 2024 y la fecha de retirada al 6 de junio de 2025.

Consulte nuestra guía de retirada de modelos para obtener la información más reciente sobre el desuso y la retirada del modelo.

Facturación basada en tokens para el ajuste preciso

  • La facturación de ajuste preciso de Azure OpenAI se basa ahora en el número de tokens del archivo de entrenamiento en lugar del tiempo total de entrenamiento transcurrido. Esto puede dar lugar a una reducción significativa del costo de algunas ejecuciones de entrenamiento y facilita mucho la estimación de los costos de ajuste preciso. Para obtener más información, puede consultar el anuncio oficial.

GPT-4o publicado en nuevas regiones

  • GPT-4o ahora también está disponible en:
    • Centro de Suecia para la implementación regional estándar.
    • Este de Australia, Este de Canadá, Este de Japón, Centro de Corea del Sur, Centro de Suecia, Norte de Suiza y Oeste de EE. UU. 3 para la implementación aprovisionada.

Para obtener la información más reciente sobre la disponibilidad del modelo, consulte la página de modelos.

Compatibilidad con claves administradas por el cliente (CMK) para asistentes

Los subprocesos y los archivos de los asistentes ahora admiten CMK en la siguiente región:

  • Oeste de EE. UU. 3

Mayo de 2024

Implementaciones aprovisionadas de GPT-4o

gpt-4o Versión: 2024-05-13 está disponible para implementaciones estándar y aprovisionadas. Las implementaciones de modelos estándar y aprovisionadas aceptan solicitudes de inferencia de texto e imagen/visión. Para obtener información sobre la disponibilidad regional del modelo, consulte la matriz de modelos para implementaciones aprovisionadas.

Asistentes v2 (versión preliminar)

Ahora hay disponible públicamente una actualización de la API de asistentes. Contiene las siguientes actualizaciones:

  • Herramienta de búsqueda de archivos y almacenamiento de vectores
  • finalización máxima y compatibilidad con el token de solicitud máxima para administrar el uso de tokens.
  • tool_choice parámetro para forzar al asistente a usar una herramienta especificada. Ahora puede crear mensajes con el rol de asistente para crear historiales de conversaciones personalizados en subprocesos.
  • Compatibilidad con temperature, top_p, response_format parámetros.
  • Compatibilidad con streaming y sondeo. Puede usar las funciones auxiliares en nuestro SDK de Python para crear ejecuciones y transmitir respuestas. También hemos agregado asistentes del SDK de sondeo para compartir actualizaciones de estado de objetos sin necesidad de sondear.
  • Experimente con Logic Apps y las llamadas a funciones mediante Azure OpenAI Studio. Importe las API de REST implementadas en Logic Apps como funciones y Studio invocará la función (como flujo de trabajo de Logic Apps) automáticamente en función del mensaje del usuario.
  • AutoGen by Microsoft Research proporciona un marco de conversación multiagente para permitir la creación cómoda de flujos de trabajo del modelo de lenguaje grande (LLM) en una amplia gama de aplicaciones. Los asistentes de Azure OpenAI ahora se integran en AutoGen a través de GPTAssistantAgent, un nuevo agente experimental que le permite agregar asistentes sin problemas a flujos de trabajo multiagente basados en AutoGen. Esto permite que varios asistentes de Azure OpenAI que podrían ser tareas o dominios especializados, colaboren y aborden tareas complejas.
  • Compatibilidad con gpt-3.5-turbo-0125 modelos ajustados en las siguientes regiones:
    • Este de EE. UU. 2
    • Centro de Suecia
  • Compatibilidad regional expandida para:
    • Japón Oriental
    • Sur de Reino Unido
    • Oeste de EE. UU.
    • Oeste de EE. UU. 3
    • Este de Noruega

Para más información, consulte la entrada de blog sobre los asistentes.

Disponibilidad general del modelo GPT-4o (GA)

GPT-4o ("o is for "omni") es el modelo más reciente de OpenAI lanzado el 13 de mayo de 2024.

  • GPT-4o integra texto e imágenes en un único modelo, lo que le permite controlar varios tipos de datos simultáneamente. Este enfoque multimodal mejora la precisión y la capacidad de respuesta en las interacciones persona-ordenador.
  • GPT-4o iguala a GPT-4 Turbo en tareas de texto y codificación en inglés, al tiempo que ofrece un rendimiento superior en idiomas distintos del inglés y en tareas de visión, estableciendo nuevos puntos de referencia para las capacidades de IA.

Para obtener información sobre la disponibilidad regional del modelo, consulte la página modelos.

Tipo de implementación estándar global (versión preliminar)

Las implementaciones globales están disponibles en los mismos recursos de Azure OpenAI que las ofertas no globales, pero permiten aprovechar la infraestructura global de Azure para enrutar dinámicamente el tráfico al centro de datos con la mejor disponibilidad para cada solicitud. Estándar global proporciona la cuota predeterminada más alta para los nuevos modelos y elimina la necesidad de equilibrar la carga entre varios recursos.

Para obtener más información, consulte la guía de tipos de implementación.

Actualización de ajuste preciso

Filtros de contenido configurables DALL-E y GPT-4 Turbo Vision GA

Cree filtros de contenido personalizados para las implementaciones DALL-E 2 y 3, GPT-4 Turbo con Vision GA (turbo-2024-04-09) y GPT-4o. Filtrado de contenido

Filtro asincrónico disponible para todos los clientes de Azure OpenAI

La ejecución de filtros de forma asincrónica para mejorar la latencia en escenarios de streaming ahora está disponible para todos los clientes de Azure OpenAI. Filtrado de contenido

Escudos de avisos

Los escudos de solicitudes protegen las solicitudes con tecnología de modelos de Azure OpenAI de dos tipos de ataques: ataques directos (jailbreak) e indirectos. Los ataques indirectos (también conocidos como ataques de mensajes indirectos o ataques de inyección de mensajes entre dominios) son un tipo de ataque en sistemas con tecnología de modelos de IA generativa que se pueden producir cuando una aplicación procesa información que el desarrollador de la aplicación o el usuario no ha creado directamente. Filtrado de contenido

Versión de la API 2024-05-01-preview

Disponibilidad general del modelo GPT-4 Turbo (GA)

La versión más reciente de disponibilidad general de GPT-4 Turbo es:

  • gpt-4 Versión: turbo-2024-04-09

Este es el reemplazo de los siguientes modelos en versión preliminar:

  • gpt-4 Versión: 1106-Preview
  • gpt-4 Versión: 0125-Preview
  • gpt-4 Versión: vision-preview

Diferencias entre los modelos de disponibilidad general OpenAI y Azure OpenAI GPT-4 Turbo

  • La versión de OpenAI del último modelo turbo 0409 admite el modo JSON y la llamada a funciones para todas las solicitudes de inferencia.
  • La versión de Azure OpenAI de la turbo-2024-04-09 más reciente actualmente no admite el uso del modo JSON y la llamada a funciones al realizar solicitudes de inferencia con entrada de imagen (visión). Las solicitudes de entrada basadas en texto (solicitudes sin image_url e imágenes insertadas) admiten el modo JSON y las llamadas a funciones.

Diferencias de gpt-4 vision-preview

  • Las mejoras específicas de Visión de Azure AI con GPT-4 Turbo con Visión no se admiten para la gpt-4 Versión: turbo-2024-04-09. Esto incluye el reconocimiento óptico de caracteres (OCR), la conexión a tierra de objetos, las indicaciones de vídeo y un mejor tratamiento de sus datos con imágenes.

Importante

Las funciones de vista previa de las mejoras de visión, como el reconocimiento óptico de caracteres (OCR), la conexión a tierra de objetos y las indicaciones de vídeo, se retirarán y dejarán de estar disponibles una vez gpt-4 versión: vision-preview se actualice a turbo-2024-04-09. Si actualmente confía en alguna de estas características en versión preliminar, esta actualización automática del modelo será un cambio importante.

Disponibilidad administrada aprovisionada por GPT-4 Turbo

  • gpt-4 Versión: turbo-2024-04-09 está disponible para implementaciones estándar y aprovisionadas. Actualmente, la versión aprovisionada de este modelo no admite solicitudes de inferencia de imagen/visión. Las implementaciones aprovisionadas de este modelo solo aceptan entradas de texto. Las implementaciones de modelos estándar aceptan solicitudes de inferencia de texto e imagen/visión.

Implementación de GPT-4 Turbo con disponibilidad general de Vision

Para implementar el modelo de disponibilidad general en la interfaz de usuario de Studio, seleccione GPT-4 y elija la versión de turbo-2024-04-09 en el menú desplegable. La cuota predeterminada para el modelo gpt-4-turbo-2024-04-09 será la misma que la cuota actual para GPT-4-Turbo. Consulte los límites de cuota regionales.

Abril de 2024

El ajuste preciso ahora se admite en dos nuevas regiones Este de EE. UU. 2 y Oeste de Suiza

El ajuste preciso ya está disponible con compatibilidad con:

Este de EE. UU. 2

  • gpt-35-turbo (0613)
  • gpt-35-turbo (1106)
  • gpt-35-turbo (0125)

Oeste de Suiza

  • babbage-002
  • davinci-002
  • gpt-35-turbo (0613)
  • gpt-35-turbo (1106)
  • gpt-35-turbo (0125)

Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo y la compatibilidad con el ajuste preciso en cada región.

Ejemplos de aprendizaje de chat multiturno

La optimización ahora admite ejemplos de entrenamiento de chat multiturno.

GPT-4 (0125) está disponible para Azure OpenAI en los datos

Ahora puede usar el modelo GPT-4 (0125) en regiones disponibles con Azure OpenAI en los datos.

Marzo de 2024

Supervisión de riesgos y seguridad en Azure OpenAI Studio

Azure OpenAI Studio ahora proporciona un panel de riesgos y seguridad para cada una de las implementaciones que usan una configuración de filtro de contenido. Úselo para comprobar los resultados de la actividad de filtrado. A continuación, puede ajustar la configuración del filtro para satisfacer mejor sus necesidades empresariales y cumplir los principios de IA responsable.

Uso de riesgos y supervisión de seguridad

Actualizaciones de Azure OpenAI en los datos

Lanzamiento de versión de disponibilidad general (GA) 2024-02-01 de la API

Esta es la versión más reciente de disponibilidad general de la API y es el reemplazo de la versión anterior 2023-05-15 de disponibilidad general. En esta versión se agrega compatibilidad con las características más recientes de disponibilidad general de Azure OpenAI, como Whisper, DALLE-3, ajuste preciso, en los datos, etc.

Las características que están en versión preliminar, como los asistentes, texto a voz (TTS), y algunos de los orígenes de datos "en los datos", necesitan una versión preliminar de la API. Para más información, consulte nuestra guía de ciclo de vida de la versión de la API.

Disponibilidad general de Whisper (GA)

El modelo de conversión de voz en texto de Whisper ahora tiene disponibilidad general para REST y Python. Actualmente, los SDK de biblioteca cliente todavía están en versión preliminar pública.

Siga este inicio rápido para probar Whisper.

Disponibilidad general (GA) de DALL-E 3

El modelo de generación de imágenes DALL-E 3 ahora tiene disponibilidad general para REST y Python. Actualmente, los SDK de biblioteca cliente todavía están en versión preliminar pública.

Para probar DALL-E 3 puede seguir un inicio rápido.

Nueva compatibilidad regional con DALL-E 3

Ahora puede acceder a DALL-E 3 con un recurso de Azure OpenAI en la región de Azure East US o AustraliaEast, además de SwedenCentral.

Desuso y retiradas de modelos

Hemos agregado una página para realizar un seguimiento de los desusos y retiradas de modelos en el servicio Azure OpenAI. Esta página proporciona información sobre los modelos que están disponibles actualmente, en desuso y retirados.

2024-03-01-versión preliminar API publicada

2024-03-01-preview tiene la misma funcionalidad que 2024-02-15-preview y agrega dos nuevos parámetros para las inserciones:

  • encoding_format permite especificar el formato para generar inserciones en float,o base64. El valor predeterminado es float.
  • dimensions permite establecer el número de inserciones de salida. Este parámetro solo se admite con los nuevos modelos de inserción de tercera generación: text-embedding-3-large, text-embedding-3-small. Normalmente, las inserciones más grandes son más costosas desde una perspectiva de proceso, memoria y almacenamiento. La capacidad de ajustar el número de dimensiones permite un mayor control sobre el costo general y el rendimiento. El parámetro dimensions no se admite en todas las versiones de la biblioteca Python de OpenAI 1.x; para aprovechar este parámetro, se recomienda actualizar a la versión más reciente: pip install openai --upgrade.

Si actualmente usa una versión preliminar de la API para aprovechar las características más recientes, se recomienda consultar el artículo Ciclo de vida de la versión de la API para realizar el seguimiento de cuánto tiempo se admitirá la versión actual de la API.

Actualización de la versión GPT-4-1106-Preview de los planes de actualización

La actualización de implementación de gpt-4 1106-Preview a gpt-4 0125-Preview programada para el 8 de marzo de 2024 ya no tiene lugar. Las implementaciones de gpt-4 versiones 1106-Preview y 0125-Preview establecidas en "Actualización automática a predeterminada" y "Actualizar cuando haya expirado" comenzarán a actualizarse después de que se publique una versión estable del modelo.

Para obtener más información sobre el proceso de actualización, consulte la página modelos.

Febrero de 2024

Modelo GPT-3.5-turbo-0125 disponible

Este modelo tiene varias mejoras, incluida una mayor precisión a la hora de responder en formatos solicitados y una corrección para un error que provocó un problema de codificación de texto para llamadas a funciones de idioma no inglés.

Para obtener información sobre la disponibilidad regional del modelo y las actualizaciones, consulte la página de modelos.

Modelos de inserción de tercera generación disponibles

  • text-embedding-3-large
  • text-embedding-3-small

En las pruebas, OpenAI informa tanto de los modelos de inserción de tercera generación grandes y pequeños que ofrecen un mejor rendimiento medio de recuperación de varios lenguajes con el banco de pruebaMIRACL, a la vez que mantiene un mejor rendimiento para las tareas en inglés con el banco de pruebas de MTEB que el modelo de inserción de texto de segunda generación ada-002.

Para obtener información sobre la disponibilidad regional del modelo y las actualizaciones, consulte la página de modelos.

Consolidación de cuotas GPT-3.5 Turbo

Para simplificar la migración entre diferentes versiones de los modelos GPT-3.5-Turbo (incluido 16k), se consolidarán todas las cuotas de GPT-3.5-Turbo en un solo valor de cuota.

  • Los clientes que hayan aumentado la cuota aprobada tendrán cuota total combinada que refleje los aumentos anteriores.

  • Cualquier cliente cuya utilización total actual en las versiones del modelo sea menor que el valor predeterminado obtendrá una nueva cuota total combinada de manera predeterminada.

Modelo GPT-4-0125-preview disponible

La versión 0125-preview del modelo gpt-4 ahora está disponible en Azure OpenAI Service en las regiones Este de EE. UU., Centro-norte de EE. UU. y Centro-sur de EE. UU. Los clientes con implementaciones de gpt-4 versión 1106-preview se actualizarán automáticamente a 0125-preview en las próximas semanas.

Para obtener información sobre la disponibilidad regional del modelo y las actualizaciones, consulte la página de modelos.

Versión preliminar pública de los asistentes de API

Azure OpenAI ahora admite la API que impulsa los GPT de OpenAI. Los asistentes de Azure OpenAI (versión preliminar) permiten crear asistentes de IA adaptados a sus necesidades mediante instrucciones personalizadas y herramientas avanzadas como el intérprete de código y las funciones personalizadas. Para obtener más información, consulte:

Versión preliminar pública de las voces de texto a voz de OpenAI

Azure OpenAI Service ahora admite las API de texto a voz con las voces de OpenAI. Obtenga la voz generada por IA a partir del texto que proporcione. Para más información, consulte la guía de información general y pruebe el inicio rápido.

Nota:

Voz de Azure AI también admite voces de texto a voz de OpenAI. Para obtener más información, consulte la guía Voces de texto a voz de OpenAI mediante Azure OpenAI Service o Voz de Azure AI.

Nuevas funcionalidades de ajuste y compatibilidad con modelos

Nueva compatibilidad regional con Azure OpenAI en sus datos

Ya puede usar Azure OpenAI en sus datos en la siguiente región de Azure:

  • Norte de Sudáfrica

Disponibilidad general de Azure OpenAI en sus datos

Diciembre de 2023

Azure OpenAI en sus datos

  • Compatibilidad completa con VPN y punto de conexión privado para Azure OpenAI en sus datos, incluida la compatibilidad de seguridad con cuentas de almacenamiento, recursos de Azure OpenAI y recursos del servicio Búsqueda de Azure AI.
  • Nuevo artículo sobre el uso de Azure OpenAI en sus datos de forma segura mediante la protección de datos con redes virtuales y puntos de conexión privados.

GPT-4 Turbo con Vision, ya disponible

GPT-4 Turbo con Vision en el servicio Azure OpenAI está ahora en versión preliminar pública. GPT-4 Turbo con Vision es un modelo multimodal grande (LMM) desarrollado por OpenAI que puede analizar imágenes y proporcionar respuestas textuales a preguntas sobre ellas. Incorpora tanto el procesamiento del lenguaje natural como la comprensión visual. Con el modo mejorado, puede usar las características de Azure AI Vision para generar información adicional a partir de las imágenes.

  • Explore las funcionalidades de GPT-4 Turbo con Vision en una experiencia sin código mediante Azure OpenAI Playground. Obtenga más información en la guía de inicio rápido.
  • La mejora de la visión mediante GPT-4 Turbo con Vision ya está disponible en Azure OpenAI Playground e incluye compatibilidad con el reconocimiento óptico de caracteres, la puesta a tierra de objetos, la compatibilidad de imágenes para " agregar sus datos " y la compatibilidad con la indicación de vídeo.
  • Realice llamadas a la API de chat directamente mediante la API REST.
  • Actualmente, la disponibilidad relativa a las regiones está limitada a SwitzerlandNorth, SwedenCentral, WestUS y AustraliaEast.
  • Obtenga más información sobre las limitaciones conocidas de GPT-4 Turbo con Vision y otras preguntas frecuentes.

noviembre de 2023

Nueva compatibilidad con orígenes de datos en Azure OpenAI en sus datos

GPT-4 Turbo Preview & GPT-3.5-Turbo-1106 publicado

Ambos modelos son la versión más reciente de OpenAI con las instrucciones mejoradas siguientes: modo JSON, la salida reproducible y llamadas a funciones paralelas.

  • GPT-4 Turbo Preview tiene una ventana de contexto máxima de 128 000 tokens y puede generar 4096 tokens de salida. Tiene los datos de aprendizaje más recientes con conocimientos hasta abril de 2023. Este modelo está en versión preliminar y no se recomienda para su uso en producción. Todas las implementaciones de este modelo de versión preliminar se actualizarán automáticamente una vez que la versión estable esté disponible.

  • GPT-3.5-Turbo-1106 tiene una ventana de contexto máxima de 16 385 tokens y puede generar 4096 tokens de salida.

Para obtener información sobre la disponibilidad regional del modelo, consulte la página de modelos.

Los modelos tienen sus propias asignaciones de cuota únicas por región.

Versión preliminar pública de DALL-E 3

DALL-E 3 es el modelo de generación de imágenes más reciente de OpenAI. Cuenta con una calidad de imagen mejorada, escenas más complejas y un rendimiento mejorado al representar texto en imágenes. También incluye más opciones de relación de aspecto. DALL-E 3 está disponible en OpenAI Studio y mediante la API REST. El recurso de OpenAI debe estar en la región SwedenCentral de Azure.

DALL-E 3 incluye reescritura de mensajes integrada para mejorar las imágenes, reducir el sesgo y aumentar la variación natural.

Para probar DALL-E 3 puede seguir un inicio rápido.

IA responsable

  • Capacidad de configuración de clientes ampliada: todos los clientes de Azure OpenAI ahora pueden configurar todos los niveles de gravedad (bajo, medio, alto) para las categorías odio, violencia, sexual y autolesión, incluido el filtrado de contenido de gravedad alta. Configurar filtros de contenido

  • Credenciales de contenido en todos los modelos DALL-E: las imágenes generadas por IA de todos los modelos DALL-E ahora incluyen una credencial digital que revela el contenido como generado por IA. Las aplicaciones que muestran recursos de imagen pueden aprovechar el SDK de Content Authenticity Initiative de código abierto para mostrar las credenciales en sus imágenes generadas por IA. Credenciales de contenido en Azure OpenAI

  • Nuevos modelos RAI

    • Detección de riesgos de ataques de jailbreak: los ataques de jailbreak son consultas de usuario diseñadas para provocar que el modelo de IA generativa muestre comportamientos que fue entrenado para evitar o infringir las reglas establecidas en el mensaje del sistema. El modelo de detección de riesgos de jailbreak es opcional (valor predeterminado desactivado) y está disponible en anotar y filtrar el modelo. Se ejecuta en las solicitudes del usuario.
    • Texto del material protegido: el texto de material protegido describe contenidos textuales conocidos (por ejemplo, letras de canciones, artículos, recetas y contenidos web seleccionados) que pueden ser emitidos por grandes modelos de lenguaje. El modelo de texto del material protegido es opcional (valor predeterminado desactivado) y está disponible en anotar y filtrar el modelo. Se ejecuta en finalizaciones de LLM.
    • Código de material protegido: el código de material protegido describe el código fuente que coincide con un conjunto de códigos fuente de repositorios públicos, que pueden ser emitidos por grandes modelos lingüísticos sin citar adecuadamente los repositorios de origen. El modelo de código del material protegido es opcional (valor predeterminado desactivado) y está disponible en anotar y filtrar el modelo. Se ejecuta en finalizaciones de LLM.

    Configurar filtros de contenido

  • Listas de bloqueados: los clientes ahora pueden personalizar rápidamente el comportamiento del filtro de contenido para las solicitudes y finalizaciones aún más mediante la creación de una lista de bloqueados personalizada en sus filtros. La lista de bloqueados personalizada permite al filtro tomar medidas de una lista personalizada de patrones, como términos específicos o patrones de regex. Además de las listas de bloqueados personalizadas, proporcionamos una lista de bloqueados de palabras soeces de Microsoft (en inglés). Usar listas de bloqueados

Octubre de 2023

Nuevos modelos de ajuste preciso (versión preliminar)

Azure OpenAI en sus datos

  • Nuevos parámetros personalizados para determinar el número de documentos recuperados y la rigurosidad.
    • La configuración de rigurosidad establece el umbral para categorizar los documentos como relevantes para sus consultas.
    • La configuración de documentos recuperados especifica el número de documentos con mayor puntuación de su índice de datos utilizados para generar respuestas.
  • Puede ver el estado de ingesta y carga de datos en Azure OpenAI Studio.
  • Compatibilidad con puntos de conexión privados y VPN para contenedores de blobs.

Septiembre de 2023

GPT-4

GPT-4 y GPT-4-32k ahora están disponibles para todos los clientes de Azure OpenAI Service. Los clientes ya no necesitan solicitar la lista de espera para usar GPT-4 y GPT-4-32k (los requisitos de registro de acceso limitado siguen aplicándose para todos los modelos de Azure OpenAI). La disponibilidad podría variar según la región. Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo en cada región.

GPT-3.5 Turbo Instruct

Azure OpenAI Service ahora admite el modelo GPT-3.5 Turbo Instruct. Este modelo tiene un rendimiento comparable a text-davinci-003 y está disponible para su uso con la API de finalizaciones. Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo en cada región.

Versión preliminar pública de Whisper

Azure OpenAI Service ahora admite las API de conversión de voz en texto con tecnología del modelo Whisper de OpenAI. Obtenga texto generado por IA en función del audio de voz que proporcione. Para obtener más información, consulte el inicio rápido.

Nota:

Voz de Azure AI también admite el modelo Whisper de OpenAI mediante la API de transcripción por lotes. Para más información, consulte la guía Creación de una transcripción por lotes. Consulte ¿Qué es el modelo Whisper? para obtener más información sobre cuándo usar Voz de Azure AI frente a Azure OpenAI Service.

Nuevas regiones

  • Azure OpenAI ahora también está disponible en las regiones Centro de Suecia y Norte de Suiza. Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo en cada región.

Aumentos de los límites de cuota regionales

  • Aumenta a los límites máximos de cuota predeterminados para ciertos modelos y regiones. La migración de cargas de trabajo a estos modelos y regiones le permitirá aprovechar un mayor número de tokens por minuto (TPM).

Agosto de 2023

Actualizaciones de Azure OpenAI en datos propios (versión preliminar)

Jul. de 2023

Compatibilidad con llamadas a funciones

Aumento de la matriz de entrada de inserción

Nuevas regiones

  • Azure OpenAI ahora también está disponible en las regiones Este de Canadá, Este de EE. UU. 2, Este de Japón y Centro-norte de EE. UU. Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo en cada región.

Junio de 2023

Uso de Azure OpenAI en sus propios datos (versión preliminar)

  • Azure OpenAI en sus datos ya está disponible en versión preliminar, lo que le permite chatear con modelos de OpenAI como GPT-35-Turbo y GPT-4 y recibir respuestas basadas en sus datos.

Nuevas versiones de los modelos gpt-35-turbo y gpt-4

  • gpt-35-turbo (versión 0613)
  • gpt-35-turbo-16k (versión 0613)
  • gpt-4 (versión 0613)
  • gpt-4-32k (versión 0613)

Sur de Reino Unido

  • Azure OpenAI ya está disponible en la región Sur de Reino Unido. Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo en cada región.

Filtrado de contenido y anotaciones (versión preliminar)

Quota

Mayo de 2023

Compatibilidad con el SDK de Java y JavaScript

  • Los NUEVOS SDK en versión preliminar de Azure OpenAI ofrecen compatibilidad con JavaScript y Java.

Disponibilidad general (GA) de Chat Completion de Azure OpenAI

  • Compatibilidad de disponibilidad general para:
    • Versión 2023-05-15 de la API Chat Completion.
    • Modelos GPT-35-Turbo.
    • Serie de modelos GPT-4.

Si actualmente usa la API 2023-03-15-preview, se recomienda migrar a la API 2023-05-15 de disponibilidad general. Si actualmente usa la versión 2022-12-01 de la API, sigue siendo de disponibilidad general, pero no incluye las funcionalidades más recientes de finalización de chat.

Importante

El uso de las versiones actuales de los modelos GPT-35-Turbo con el punto de conexión de Completion permanece en versión preliminar.

Centro de Francia

  • Azure OpenAI ya está disponible en la región Centro de Francia. Consulte la página de modelos para obtener la información más reciente sobre la disponibilidad del modelo en cada región.

abril de 2023

  • Versión preliminar pública de DALL-E 2. Azure OpenAI Service ahora admite API de generación de imágenes con tecnología del modelo DALL-E 2 de OpenAI. Obtenga imágenes generadas por IA en función del texto descriptivo que proporcione. Para obtener más información, consulte el inicio rápido.

  • Las implementaciones inactivas de modelos personalizados ahora se eliminarán después de 15 días; los modelos seguirán estando disponibles para la reimplementación. Si se implementa un modelo personalizado (ajustado) durante más de quince (15) días durante los cuales no se realizan finalizaciones ni llamadas de finalización de chat, la implementación se eliminará automáticamente (y no se incurrirá en ningún cargo de hospedaje adicional por esa implementación). El modelo personalizado subyacente permanecerá disponible y se puede volver a implementar en cualquier momento. Para obtener más información, consulte el artículo de procedimientos.

Marzo de 2023

  • Los modelos de la serie GPT-4 ya están disponibles en versión preliminar en Azure OpenAI. Los clientes de Azure OpenAI existentes pueden solicitar acceso rellenando este formulario. Estos modelos están disponibles actualmente en las regiones Este de EE. UU. y Centro-sur de EE. UU.

  • Nueva API de finalización de chat para los modelos de GPT-35-Turbo y GPT-4 publicados en versión preliminar el 21/2. Para más información, consulte los inicios rápidos actualizados y el artículo de procedimientos.

  • GPT-35-Turbo (versión preliminar). Para más información, consulte el artículo de procedimientos.

  • Aumento de los límites de entrenamiento para la optimización: el tamaño máximo del trabajo de entrenamiento (tokens en el archivo de entrenamiento) x (número de épocas) es de 2 mil millones de tokens para todos los modelos. También hemos aumentado el trabajo de entrenamiento máximo de 120 a 720 horas.

  • Agregar casos de uso adicionales a su acceso existente. Anteriormente, el proceso para agregar nuevos casos de uso requería que los clientes vuelvan a aplicar al servicio. Ahora, vamos a publicar un nuevo proceso que le permite agregar rápidamente nuevos casos de uso a su uso del servicio. Esto sigue el proceso establecido de acceso limitado dentro de los servicios de Azure AI. Los clientes actuales pueden dar fe de todos y cada uno de los nuevos casos de uso aquí. Tenga en cuenta que esto es necesario siempre que desee utilizar el servicio para un nuevo caso de uso que no solicitó originalmente.

2023 de febrero

Características nuevas

Actualizaciones

  • El filtrado de contenidos está activado por defecto.

Nuevos artículos sobre:

Nuevo curso de formación:

Enero de 2023

Características nuevas

  • Disponibilidad general del servicio. Azure OpenAI Service ya está disponible con carácter general.

  • Nuevos modelos: adición del último modelo de texto, text-davinci-003 (Este de EE. UU., Oeste de Europa), text-ada-embeddings-002 (Este de EE. UU., Centro-sur de EE. UU., Oeste de Europa)

Diciembre de 2022

Nuevas características

  • Los modelos más recientes de OpenAI. Azure OpenAI proporciona acceso a todos los modelos más recientes, incluida la serie GPT-3.5.

  • Nueva versión de la API (01-12-2022). Esta actualización incluye varias mejoras solicitadas, incluida la información de uso de tokens en la respuesta de la API, los mensajes de error mejorados para los archivos, la alineación con OpenAI en la estructura de datos de creación de ajustes precisos y la compatibilidad con el parámetro de sufijo para permitir la nomenclatura personalizada de los trabajos con ajustes precisos. ​

  • Límites más altos de solicitudes por segundo. 50 para modelos que no son Davinci. 20 para modelos Davinci.

  • Implementaciones de ajustes precisos más rápidas. Implemente los modelos Ada y Curie con ajustes precisos en menos de 10 minutos.

  • Límites de entrenamiento más altos: 40 millones de tokens de entrenamiento para Ada, Babbage y Curie. 10 millones para Davinci.

  • Proceso para solicitar modificaciones en el registro de datos de abuso y uso indebido y revisión humana. Hoy en día, el servicio registra los datos de solicitud y respuesta para detectar abusos y usos indebidos a fin de asegurarse de que estos modelos eficaces no se usen de forma incorrecta. Sin embargo, muchos clientes tienen requisitos estrictos de privacidad y seguridad de los datos que requieren un mayor control sobre estos. Para admitir estos casos de uso, vamos a lanzar un nuevo proceso para que los clientes modifiquen las directivas de filtrado de contenido o desactiven el registro de abusos en los casos de uso de riesgo bajo. Esto sigue el proceso de acceso limitado establecido en servicios de Azure AI y los clientes existentes de OpenAI pueden solicitarlo aquí.

  • Cifrado mediante claves administradas por el cliente (CMK). Una CMK proporciona a los clientes un mayor control sobre la administración de sus datos en Azure OpenAI al proporcionarles claves de cifrado propias que se usan para almacenar datos de entrenamiento y modelos personalizados. Las claves administradas por el cliente (CMK), también conocidas como Bring Your Own Key (BYOK), ofrecen más flexibilidad para crear, girar, deshabilitar y revocar controles de acceso. También permite auditar las claves de cifrado que se usan para proteger los datos. Obtenga más información en nuestra documentación sobre cifrado en reposo.

  • Compatibilidad con la caja de seguridad

  • Cumplimiento de SOC-2

  • Registro y diagnóstico a través de Azure Resource Health, Análisis de costos y configuración de métricas y diagnóstico.

  • Mejoras de Studio. Numerosas mejoras de facilidad de uso para el flujo de trabajo de Studio, incluida la compatibilidad con roles de Azure AD para controlar quién tiene acceso en el equipo para crear modelos con ajustes precisos e implementarlos.

Cambios (importantes)

La creación de solicitud de API de ajuste preciso se ha actualizado para que coincida con el esquema de OpenAI.

Versiones preliminares de la API:

{​
    "training_file": "file-XGinujblHPwGLSztz8cPS8XY",​
    "hyperparams": { ​
        "batch_size": 4,​
        "learning_rate_multiplier": 0.1,​
        "n_epochs": 4,​
        "prompt_loss_weight": 0.1,​
    }​
}

Versión de API 2022-12-01:

{​
    "training_file": "file-XGinujblHPwGLSztz8cPS8XY",​
    "batch_size": 4,​
    "learning_rate_multiplier": 0.1,​
    "n_epochs": 4,​
    "prompt_loss_weight": 0.1,​
}

El filtrado de contenido está desactivado temporalmente de forma predeterminada. La moderación de contenido de Azure funciona de forma diferente a Azure OpenAI. Azure OpenAI ejecuta filtros de contenido durante la llamada de generación para detectar contenido perjudicial u ofensivo y filtra desde la respuesta. Más información​

Estos modelos se rehabilitarán en el primer trimestre de 2023 y estarán activados de forma predeterminada. ​

Acciones del cliente

Pasos siguientes

Más información sobre los modelos subyacentes que impulsan Azure OpenAI.