Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
El ajuste personalizado personaliza un modelo de inteligencia artificial previamente entrenado con entrenamiento adicional en una tarea o conjunto de datos específico para mejorar el rendimiento, agregar nuevas aptitudes o mejorar la precisión. El resultado es un nuevo modelo genAI optimizado basado en los ejemplos proporcionados. Este artículo le guía a través de los conceptos clave y las decisiones que debe tomar antes de personalizar, incluidos el tipo de personalización adecuado para su caso de uso, los criterios de selección de modelos basados en técnicas de entrenamiento, y cómo esto le ayuda en su recorrido por el mundo de GenAI.
Si acaba de empezar con el ajuste fino, recomendamos GPT-4.1 para habilidades complejas, como la traducción de idiomas, la adaptación a dominios o la generación avanzada de código. Para tareas más centradas (como clasificación, análisis de sentimiento o moderación de contenido) o al destilar conocimientos de un modelo más sofisticado, comience con GPT-4.1-mini para una iteración más rápida y menores costos.
Casos de uso principales para ajuste fino
El ajuste preciso se destaca en la personalización de modelos de lenguaje para aplicaciones y dominios específicos. Algunos casos de uso clave incluyen:
- Especialización de dominio: Adaptar un modelo de lenguaje para un campo especializado, como medicina, finanzas o derecho, donde es importante el conocimiento y la terminología específicos del dominio. Enseñe el modelo para comprender la jerga técnica y proporcionar respuestas más precisas.
- Rendimiento de la tarea: Optimice un modelo para una tarea específica, como análisis de sentimiento, generación de código, traducción o resumen. Puede mejorar significativamente el rendimiento de un modelo más pequeño en una aplicación específica, en comparación con un modelo de uso general.
- Estilo y tono: Enseñe el modelo para que coincida con su estilo de comunicación preferido; por ejemplo, adapte el modelo para la escritura empresarial formal, la voz específica de la marca o la escritura técnica.
- Instrucción siguiente: Mejore la capacidad del modelo de seguir requisitos de formato específicos, instrucciones de varios pasos o salidas estructuradas. En marcos de varios agentes, enseñe al modelo a llamar al agente adecuado para la tarea correcta.
- Cumplimiento y seguridad: Entrene un modelo ajustado para cumplir las directivas organizativas, los requisitos normativos u otras directrices únicas de la aplicación.
- Adaptación cultural o lingüística: Adapte un modelo de lenguaje para un contexto cultural, dialecto o idioma específico que no esté bien representado en los datos de entrenamiento. La optimización es especialmente valiosa cuando un modelo de uso general no cumple sus requisitos específicos, pero quiere evitar el costo y la complejidad del entrenamiento de un modelo desde cero.
¿Proceso sin servidor o administrado?
Antes de seleccionar un modelo, es importante seleccionar el producto de ajuste adecuado que se adapte a sus necesidades. Azure AI Foundry ofrece dos modalidades principales para el ajuste fino: computación sin servidor y gestionada.
- Serverless permite personalizar modelos utilizando nuestra capacidad con un modelo de precios basado en el consumo, a partir de 1,70 USD por millón de tokens de entrada. Optimizamos el entrenamiento para la velocidad y la escalabilidad, a la vez que manejamos toda la administración de la infraestructura. Este enfoque no requiere límites de GPU y proporciona acceso exclusivo a los modelos de OpenAI, aunque con menos opciones de hiperparámetros que el cómputo gestionado.
- Cómputo administrado ofrece una amplia gama de modelos y personalización avanzada a través de AzureML, pero requiere que proporcione sus propias máquinas virtuales para el entrenamiento y el alojamiento. Aunque esto proporciona control total sobre los recursos, exige cuotas elevadas de las que carecen muchos clientes, no incluye modelos de OpenAI y no puede usar nuestras optimizaciones multiarrendatario.
Para la mayoría de los clientes, sin servidor proporciona el mejor equilibrio entre facilidad de uso, rentabilidad y acceso a modelos Premium. Este documento se centra en las opciones sin servidor.
Para encontrar los pasos para ajustar un modelo en AI Foundry, consulte Ajuste fino de modelos en AI Foundry o Ajuste fino de modelos mediante computación administrada. Para obtener instrucciones detalladas sobre el ajuste fino de OpenAI, consulte Ajuste de modelos de Azure OpenAI.
Técnicas de entrenamiento
Una vez que identifique un caso de uso, debe seleccionar la técnica de entrenamiento adecuada, que guía el modelo que seleccione para el entrenamiento. Ofrecemos tres técnicas de entrenamiento para optimizar los modelos:
Fine-Tuning supervisado (SFT): Técnica fundamental que entrena tu modelo en pares de entrada-salida, enseñándole a generar respuestas deseadas para entradas específicas.
- Lo mejor para: La mayoría de los casos de uso, como la especialización de dominio, el rendimiento de tareas, el estilo y el tono, seguir instrucciones y la adaptación del lenguaje.
- Cuándo usar: Comience aquí para la mayoría de los proyectos. SFT aborda el número más amplio de escenarios de ajuste preciso y proporciona resultados confiables con datos claros de entrenamiento de salida de entrada.
- Modelos admitidos: GPT 4o, 4o-mini, 4.1, 4.1-mini, 4.1-nano; Llama 2 y Llama 3.1; Phi 4, Phi-4-mini-instruct; Mistral Nemo, Ministrol-3B, Mistral Large (2411); NTT Tsuzumi-7b
Optimización de preferencias directas (DPO): Entrena modelos para preferir determinados tipos de respuestas sobre otros mediante el aprendizaje de comentarios comparativos, sin necesidad de un modelo de recompensa independiente.
- Lo mejor para: Mejorar la calidad, la seguridad y la alineación de la respuesta con las preferencias humanas.
- Cuándo usar: Cuando tenga ejemplos de salidas preferidas frente a no preferidas, o cuando necesite optimizar para cualidades subjetivas como la utilidad, la inofensión o el estilo. Los casos de uso incluyen la adaptación de modelos a un estilo y tono específicos, o la adaptación de un modelo a las preferencias culturales.
- Modelos admitidos: GPT 4o, 4.1, 4.1-mini, 4.1-nano
Ajuste fino de refuerzo (RFT): Usa el aprendizaje de refuerzo para optimizar modelos basados en señales de recompensa, lo que permite objetivos de optimización más complejos.
- Lo mejor para: Escenarios de optimización complejos en los que los pares simples de salida de entrada no son suficientes.
- Cuándo usar: RFT es ideal para dominios objetivos como matemáticas, química y física, donde hay respuestas claras y incorrectas y el modelo ya muestra alguna competencia. Funciona mejor cuando la adivinación afortunada es difícil y los evaluadores expertos aceptarían de forma coherente una respuesta inequívoca y correcta. Requiere más experiencia en aprendizaje automático para implementar de forma eficaz.
- Modelos admitidos: o4-mini
La mayoría de los clientes deben empezar con SFT, ya que aborda el número más amplio de casos de uso de ajuste preciso.
Siga este vínculo para ver y descargar conjuntos de datos de ejemplo para probar el ajuste preciso.
Modalidades de entrenamiento
- Texto a texto (todos los modelos): Todos nuestros modelos admiten el ajuste de texto a texto estándar para tareas basadas en lenguaje.
- Visión + texto (GPT 4o, 4.1): Algunos modelos admiten el ajuste de la visión, aceptando entradas de imagen y texto al generar salidas de texto. Entre los casos de uso para el ajuste de visión se incluyen la interpretación de gráficos, gráficos y datos visuales; moderación de contenido; evaluación de la calidad visual; procesamiento de documentos con texto mixto e imagen; y catalogación de productos de fotografías.
Tabla de comparación de modelos
En esta tabla se proporciona información general sobre los modelos disponibles.
Modelo | Modalidades | Técnicas | Puntos destacados |
---|---|---|---|
GPT 4.1 | Texto, Visión | SFT, DPO | Rendimiento superior en tareas sofisticadas, comprensión matizada. |
GPT 4.1-mini | Mensaje de texto | SFT, DPO | Iteración rápida, rentable, buena para tareas sencillas |
GPT 4.1-nano | Mensaje de texto | SFT, DPO | Uso rápido, rentable y mínimo de recursos |
o4-mini | Mensaje de texto | RFT | Modelo de razonamiento adecuado para tareas lógicas complejas |
Phi 4 | Mensaje de texto | SFT | Opción rentable para tareas más sencillas |
Ministral 3B | Mensaje de texto | SFT | Opción de bajo costo para iteración más rápida |
Mistral Nemo | Mensaje de texto | SFT | Equilibrio entre el tamaño y la funcionalidad |
Mistral Grande (2411) | Mensaje de texto | SFT | Modelo Mistral más capaz, mejor para tareas complejas |
Introducción al ajuste fino
- Defina el caso de uso: Identifique si necesita un modelo de uso general altamente capaz (por ejemplo, GPT 4.1), un modelo más pequeño rentable para una tarea específica (GPT 4.1-mini o nano) o un modelo de razonamiento complejo (o4-mini).
- Prepare los datos: Comience con ejemplos de alta calidad de 50 a 100 para pruebas iniciales, escalado a más de 500 ejemplos para modelos de producción.
- Elija la técnica: Comience con el Fine-Tuning supervisado (SFT), a menos que tenga requisitos específicos para los modelos de razonamiento o RFT.
- Iteración y evaluación: El ajuste preciso es un proceso iterativo: comience con una línea de base, mida el rendimiento y afina el enfoque en función de los resultados.
Para encontrar los pasos para ajustar finamente un modelo en AI Foundry, consulte Ajuste fino de modelos en AI Foundry, Ajuste fino de modelos de Azure OpenAI o Ajuste fino de modelos mediante computación administrada.
Disponibilidad de ajuste
Ahora que sabe cuándo usar el ajuste adecuado para su caso de uso, puede ir a Fundición de IA de Azure para buscar modelos disponibles para ajustarlos.
Para realizar un ajuste fino de un modelo de AI Foundry mediante Serverless, debe tener un hub o proyecto en la región donde el modelo está disponible para ajuste fino. Consulte Disponibilidad de regiones para los modelos en la implementación estándar para obtener información detallada sobre la disponibilidad de modelos y regiones, y Cómo crear un proyecto basado en un Hub para crear su proyecto.
Para ajustar un modelo de OpenAI , puede usar un recurso de Azure OpenAI, un recurso Foundry o un proyecto predeterminado, o un centro o proyecto. GPT 4.1, 4.1-mini y 4.1-nano están disponibles en todas las regiones con aprendizaje global. Para obtener disponibilidad regional, consulte Disponibilidad regional y límites de Azure OpenAI Fine Tuning. Consulte Creación de un proyecto para Azure AI Foundry para obtener instrucciones sobre cómo crear un proyecto.
Para ajustar un modelo utilizando Cómputo Administrado, debe contar con un centro de recursos o un proyecto y una cuota de VM disponible para el entrenamiento y la inferencia. Consulte Ajuste fino de modelos mediante computación administrada (versión preliminar) para obtener más información sobre cómo usar el ajuste fino de computación administrada y Cómo crear un proyecto basado en un Hub para crear su proyecto.