Megosztás:


Nagy nyelvi modellek (LLM-ek)

Fontos

Ez a funkció bétaverzióban érhető el. A munkaterület rendszergazdái az Előnézetek lapon szabályozhatják a funkcióhoz való hozzáférést. Lásd: Az Azure Databricks előzetes verziójának kezelése.

Ezen a lapon jegyzetfüzet-példákat talál a nagyméretű nyelvi modellek (LLM-ek) kiszolgáló nélküli GPU-számítással történő finomhangolásához. Ezek a példák a finomhangolás különböző megközelítéseit mutatják be, beleértve a paraméterhatékony módszereket, például a Low-Rank Adaptációt (LoRA) és a teljes felügyelt finomhangolást.

Qwen2-0.5B modell finomhangolása

Az alábbi jegyzetfüzet a Qwen2-0.5B modell hatékony finomhangolását mutatja be a következő módon:

  • Transzformátor-megerősítési tanulás (TRL) felügyelt finomhangoláshoz
  • Liger Kernelek a memória-hatékony betanításhoz optimalizált Triton-kernelekkel.
  • LoRA paraméter-hatékony finomhangoláshoz.

Jegyzetfüzet szerezz

Llama-3.2-3B finomhangolása Unsloth használatával

Ez a jegyzetfüzet bemutatja, hogyan finomhangolható a Llama-3.2-3B a Unsloth könyvtár használatával.

Lustaellenes Láma

Jegyzetfüzet szerezz

Videó bemutató

Ez a videó részletesen végigvezeti a jegyzetfüzetet (12 perc).

Felügyelt finomhangolás a DeepSpeed és a TRL használatával

Ez a jegyzetfüzet bemutatja, hogyan lehet felügyelt finomhangolást (SFT) futtatni a Kiszolgáló nélküli GPU Python API és a Transformer Reinforcement Learning (TRL) kódtár segítségével, a DeepSpeed ZeRO Stage 3 optimalizálással.

TRL DeepSpeed

Jegyzetfüzet szerezz

Az LORA finomhangolása az Axolotl használatával

Ez a jegyzetfüzet bemutatja, hogyan használhatja a kiszolgáló nélküli GPU Python API-t egy Olmo3 7B-modell finomhangolásához az Axolotl-kódtár használatával.

Axolotl

Jegyzetfüzet szerezz