Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of mappen te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen om mappen te wijzigen.
Belangrijk
Deze functie bevindt zich in de bètaversie. Werkruimtebeheerders kunnen de toegang tot deze functie beheren vanaf de pagina Previews . Zie Azure Databricks-previews beheren.
Deze pagina bevat notebookvoorbeelden voor het afstemmen van grote taalmodellen (LLM's) met behulp van serverloze GPU-rekenkracht. In deze voorbeelden worden verschillende benaderingen gedemonstreerd voor het verfijnen van parameters, waaronder methoden zoals Low-Rank Adaptation (LoRA) en volledige afstemming onder supervisie.
| Handleiding | Beschrijving |
|---|---|
| Qwen2-0.5B-model verfijnen | Verfijn het Qwen2-0.5B-model efficiënt met behulp van TRL (Transformer Reinforcement Learning), Liger Kernels voor geheugenefficiënte training en LoRA voor het efficiënt afstemmen van parameters. |
| Llama-3.2-3B verfijnen met Unsloth | Verfijn Llama-3.2-3B met behulp van de Unsloth-bibliotheek. |
| Afstemming onder supervisie met DeepSpeed en TRL | Gebruik de Python-API voor serverloze GPU om SFT (supervisie) uit te voeren met behulp van de TRL-bibliotheek (Transformer Reinforcement Learning) met DeepSpeed ZeRO Fase 3-optimalisatie. |
| LORA-finetuning met behulp van Axolotl | Gebruik de Python-API voor serverloze GPU om LORA een Olmo3 7B-model af te stemmen met behulp van de Axolotl-bibliotheek. |
Videodemo
In deze video wordt stapsgewijs uitgelegd hoe u Llama-3.2-3B met Unsloth kunt afstemmen aan de hand van het voorbeeldnotitieblok (12 minuten).