Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Importante
Esta característica se encuentra en su versión beta. Los administradores del área de trabajo pueden controlar el acceso a esta característica desde la página Vistas previas . Consulte Administración de versiones preliminares de Azure Databricks.
En esta página se proporcionan ejemplos de cuadernos para ajustar modelos de lenguaje grande (LLM) mediante el proceso de GPU sin servidor. En estos ejemplos se muestran varios enfoques para ajustar el ajuste, incluidos métodos eficientes para parámetros, como Low-Rank Adaptación (LoRA) y ajuste fino supervisado completo.
Ajuste del modelo Qwen2-0.5B
En el cuaderno siguiente se proporciona un ejemplo de cómo ajustar eficazmente el modelo Qwen2-0.5B mediante:
- Aprendizaje de refuerzo de transformador (TRL) para el ajuste fino supervisado
- Núcleos de Liger para un entrenamiento eficiente en el uso de memoria con núcleos Triton optimizados.
- LoRA para la optimización eficaz de parámetros.
Notebook
Ajustar llama-3.2-3B con unsloth
En este cuaderno se muestra cómo ajustar Llama-3.2-3B mediante la biblioteca Unsloth.
Llama sin pereza
Demostración de vídeo
Este vídeo le guía por el cuaderno en detalle (12 minutos).
Ajuste fino supervisado mediante DeepSpeed y TRL
En este cuaderno se muestra cómo usar la API de Python de GPU sin servidor para ejecutar el ajuste fino supervisado (SFT) mediante la biblioteca de Aprendizaje por refuerzo con transformadores (TRL) con optimización DeepSpeed ZeRO Stage 3.