Model bahasa besar (LLM)

Penting

Runtime AI untuk tugas node tunggal sedang dalam Pratinjau Umum. API pelatihan terdistribusi untuk beban kerja multi-GPU tetap berada di Beta.

Halaman ini menyediakan contoh buku catatan untuk menyempurnakan model bahasa besar (LLM) menggunakan AI Runtime. Contoh-contoh ini menunjukkan berbagai pendekatan untuk menyempurnakan termasuk metode hemat parameter seperti adaptasi Low-Rank (LoRA) dan penyempurnaan penuh yang diawasi.

Tutorial Deskripsi
Menyempurnakan model Qwen2-0.5B Sesuaikan model Qwen2-0.5B secara efisien menggunakan pembelajaran penguatan Transformer (TRL), Kernel Liger untuk latihan yang hemat memori, dan LoRA untuk penyetelan parameter yang efisien.
Menyempurnakan Llama-3.2-3B dengan Unsloth Melakukan fine-tuning pada Llama-3.2-3B menggunakan pustaka Unsloth.
Penyempurnaan yang diawasi menggunakan DeepSpeed dan TRL Gunakan API Python GPU Tanpa Server untuk menjalankan penyempurnaan yang diawasi (SFT) menggunakan pustaka Transformer Reinforcement Learning (TRL) dengan pengoptimalan DeepSpeed ZeRO Stage 3.
Penyempurnaan LORA menggunakan Axolotl Gunakan Serverless GPU Python API untuk menyempurnakan model Olmo3 7B menggunakan pustaka Axolotl.
Qwen2-0,5B penyempurnaan terdistribusi Sesuaikan model Qwen2-0.5B menggunakan LoRA dan Liger Kernels untuk pelatihan terdistribusi yang efisien dalam penggunaan memori dengan pengurangan parameter.
Melakukan fine-tuning terdistribusi pada Llama-3.2-3B dengan Unsloth Sesuaikan Llama-3.2-3B menggunakan pelatihan terdistribusi di beberapa GPU dengan pustaka Unsloth untuk pelatihan hemat parameter yang dioptimalkan.
Menyempurnakan Llama 3.1 8B dengan LLM Foundry Sesuaikan model Llama 3.1 8B menggunakan Mosaic LLM Foundry dengan strategi pelatihan terdistribusi dan evaluasi model.
Menyempurnakan GPT-OSS 120B dengan DDP dan FSDP Sesuaikan model OpenAI GPT-OSS 120B menggunakan penyempurnaan yang diawasi pada GPU H100 dengan strategi pelatihan terdistribusi DDP dan FSDP.
Pelatihan terdistribusi dengan PyTorch FSDP Melatih model Transformer menggunakan PyTorch Fully Sharded Data Parallel (FSDP) untuk membagi parameter model ke beberapa GPU.

Demo video

Video ini memandu melalui Fine-tune Llama-3.2-3B dengan notebook contoh Unsloth secara rinci (12 menit).