Partilhar via


Modelos linguísticos de grande dimensão (LLM)

Importante

O tempo de execução da IA para tarefas de nó único está em Pré-visualização Pública. A API de treino distribuída para cargas de trabalho multi-GPU permanece em Beta.

Esta página fornece exemplos de cadernos para ajustar finamente grandes modelos de linguagem (LLMs) usando AI Runtime. Estes exemplos demonstram várias abordagens para o ajuste fino, incluindo métodos eficientes em termos de parâmetros, como a adaptação Low-Rank (LoRA) e o ajuste fino supervisionado completo.

Tutorial Descrição
Ajustar fino o modelo Qwen2-0.5B Ajuste eficiente do modelo Qwen2-0.5B usando aprendizagem por reforço (TRL) com Transformers, Kernels Liger para treino eficiente em memória e LoRA para ajuste fino eficiente em parâmetros específicos.
Aperfeiçoamento do Llama-3.2-3B com Unsloth Afina o Llama-3.2-3B usando a biblioteca Unsloth.
Ajuste fino supervisionado usando DeepSpeed e TRL Utilize a API em Python da Serverless de GPU para executar ajuste fino supervisionado (SFT) usando a biblioteca Transformer Reinforcement Learning (TRL) com otimização DeepSpeed ZeRO Stage 3.
Ajuste fino LORA usando Axolotl Use a API Python da GPU Serverless para afinar finamente um modelo Olmo3 7B usando a biblioteca Axolotl.

Demonstração em vídeo

Este vídeo percorre em detalhe o caderno de exemplo Fine-tune Llama-3.2-3B with Unsloth (12 minutos).