Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Belangrijk
AI Runtime voor taken met één knooppunt bevindt zich in openbare preview. De gedistribueerde trainings-API voor workloads met meerdere GPU's blijft bèta.
Deze pagina bevat notebookvoorbeelden voor het afstemmen van grote taalmodellen (LLM's) met behulp van AI Runtime. In deze voorbeelden worden verschillende benaderingen gedemonstreerd voor het verfijnen van parameters, waaronder methoden zoals Low-Rank Adaptation (LoRA) en volledige afstemming onder supervisie.
| Handleiding | Beschrijving |
|---|---|
| Qwen2-0.5B-model verfijnen | Verfijn het Qwen2-0.5B-model efficiënt met behulp van TRL (Transformer Reinforcement Learning), Liger Kernels voor geheugenefficiënte training en LoRA voor het efficiënt afstemmen van parameters. |
| Llama-3.2-3B verfijnen met Unsloth | Verfijn Llama-3.2-3B met behulp van de Unsloth-bibliotheek. |
| Afstemming onder supervisie met DeepSpeed en TRL | Gebruik de Python-API voor serverloze GPU om SFT (supervisie) uit te voeren met behulp van de TRL-bibliotheek (Transformer Reinforcement Learning) met DeepSpeed ZeRO Fase 3-optimalisatie. |
| LORA-finetuning met behulp van Axolotl | Gebruik de Python-API voor serverloze GPU om LORA een Olmo3 7B-model af te stemmen met behulp van de Axolotl-bibliotheek. |
Videodemo
In deze video wordt stapsgewijs uitgelegd hoe u Llama-3.2-3B met Unsloth kunt afstemmen aan de hand van het voorbeeldnotitieblok (12 minuten).