Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Fontos
Ez a funkció bétaverzióban érhető el. A munkaterület rendszergazdái az Előnézetek lapon szabályozhatják a funkcióhoz való hozzáférést. Lásd: Az Azure Databricks előzetes verziójának kezelése.
Ezen a lapon jegyzetfüzet-példákat talál a nagyméretű nyelvi modellek (LLM-ek) kiszolgáló nélküli GPU-számítással történő finomhangolásához. Ezek a példák a finomhangolás különböző megközelítéseit mutatják be, beleértve a paraméterhatékony módszereket, például a Low-Rank Adaptációt (LoRA) és a teljes felügyelt finomhangolást.
Qwen2-0.5B modell finomhangolása
Az alábbi jegyzetfüzet a Qwen2-0.5B modell hatékony finomhangolását mutatja be a következő módon:
- Transzformátor-megerősítési tanulás (TRL) felügyelt finomhangoláshoz
- Liger Kernelek a memória-hatékony betanításhoz optimalizált Triton-kernelekkel.
- LoRA paraméter-hatékony finomhangoláshoz.
Llama-3.2-3B finomhangolása Unsloth használatával
Ez a jegyzetfüzet bemutatja, hogyan finomhangolható a Llama-3.2-3B a Unsloth könyvtár használatával.
Lustaellenes Láma
Videó bemutató
Ez a videó részletesen végigvezeti a jegyzetfüzetet (12 perc).
Felügyelt finomhangolás a DeepSpeed és a TRL használatával
Ez a jegyzetfüzet bemutatja, hogyan lehet felügyelt finomhangolást (SFT) futtatni a Kiszolgáló nélküli GPU Python API és a Transformer Reinforcement Learning (TRL) kódtár segítségével, a DeepSpeed ZeRO Stage 3 optimalizálással.
TRL DeepSpeed
Az LORA finomhangolása az Axolotl használatával
Ez a jegyzetfüzet bemutatja, hogyan használhatja a kiszolgáló nélküli GPU Python API-t egy Olmo3 7B-modell finomhangolásához az Axolotl-kódtár használatával.