Megjegyzés
Az oldalhoz való hozzáféréshez engedély szükséges. Megpróbálhat bejelentkezni vagy módosítani a címtárat.
Az oldalhoz való hozzáféréshez engedély szükséges. Megpróbálhatja módosítani a címtárat.
Fontos
Ez a funkció bétaverzióban érhető el. A munkaterület rendszergazdái az Előnézetek lapon szabályozhatják a funkcióhoz való hozzáférést. Lásd: Az Azure Databricks előzetes verziójának kezelése.
Ezen a lapon jegyzetfüzet-példákat talál a DeepSpeed használatával végzett elosztott betanításra az AI-futtatókörnyezetben. A DeepSpeed a ZeRO (Zero Redundancy Optimizer) fázisain keresztül fejlett memóriaoptimalizálási technikákat biztosít, így lehetővé teszi a nagy modellek hatékony betanítását.
Mikor érdemes használni a DeepSpeed-et?
A DeepSpeed használata a következő esetekben:
- Speciális memóriaoptimalizálásra van szükség a standard FSDP-n túl
- Részletes vezérlést szeretne az optimalizálási állapotok skálázása felett (ZeRO 1., 2. vagy 3. szakasz)
- További funkciókra van szüksége, például a gradiensakkumuláció-fúzióra vagy a CPU-tehermentesítésre.
- Nagy nyelvi modellekkel dolgozik (1B–100B+ paraméterek)
Egyszerűbb használati esetek esetén fontolja meg a DDP használatát. A PyTorch-natív nagy modell betanításához lásd az FSDP-t.
Examples
| Oktatóanyag | Leírás |
|---|---|
| Felügyelt finomhangolás a TRL-lel és a DeepSpeed ZeRO 3. szakaszával | Kiszolgáló nélküli GPU Python API-val felügyelt finomhangolást (SFT) hajthat végre a Transformer Reinforcement Learning (TRL) könyvtár segítségével, a DeepSpeed ZeRO Stage 3 optimalizálásával egy A10 GPU csomóponton. |