Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Importante
O tempo de execução da IA para tarefas de nó único está em Pré-visualização Pública. A API de treino distribuída para cargas de trabalho multi-GPU permanece em Beta.
Esta página fornece exemplos de cadernos para ajustar finamente grandes modelos de linguagem (LLMs) usando AI Runtime. Estes exemplos demonstram várias abordagens para o ajuste fino, incluindo métodos eficientes em termos de parâmetros, como a adaptação Low-Rank (LoRA) e o ajuste fino supervisionado completo.
| Tutorial | Descrição |
|---|---|
| Ajustar fino o modelo Qwen2-0.5B | Ajuste eficiente do modelo Qwen2-0.5B usando aprendizagem por reforço (TRL) com Transformers, Kernels Liger para treino eficiente em memória e LoRA para ajuste fino eficiente em parâmetros específicos. |
| Aperfeiçoamento do Llama-3.2-3B com Unsloth | Afina o Llama-3.2-3B usando a biblioteca Unsloth. |
| Ajuste fino supervisionado usando DeepSpeed e TRL | Utilize a API em Python da Serverless de GPU para executar ajuste fino supervisionado (SFT) usando a biblioteca Transformer Reinforcement Learning (TRL) com otimização DeepSpeed ZeRO Stage 3. |
| Ajuste fino LORA usando Axolotl | Use a API Python da GPU Serverless para afinar finamente um modelo Olmo3 7B usando a biblioteca Axolotl. |
Demonstração em vídeo
Este vídeo percorre em detalhe o caderno de exemplo Fine-tune Llama-3.2-3B with Unsloth (12 minutos).