Megjegyzés
Az oldalhoz való hozzáféréshez engedély szükséges. Megpróbálhat bejelentkezni vagy módosítani a címtárat.
Az oldalhoz való hozzáféréshez engedély szükséges. Megpróbálhatja módosítani a címtárat.
Fontos
Az egycsomópontos feladatokhoz készült AI-futtatókörnyezet nyilvános előzetes verzióban érhető el. A több GPU-s számítási feladatok elosztott betanítási API-ja a bétaverzióban marad.
Ezen a lapon jegyzetfüzet-példákat talál a nagyméretű nyelvi modellek (LLM-ek) AI-futtatókörnyezettel történő finomhangolásához. Ezek a példák a finomhangolás különböző megközelítéseit mutatják be, beleértve a paraméterhatékony módszereket, például a Low-Rank Adaptációt (LoRA) és a teljes felügyelt finomhangolást.
| Oktatóanyag | Leírás |
|---|---|
| Qwen2-0.5B modell finomhangolása | Effektíven finomhangoljuk a Qwen2-0.5B modellt Transformer-megerősítő tanulás (TRL), Liger Kernelek memóriahatékony tréninghez és LoRA paraméterhatékony finomhangoláshoz való alkalmazásával. |
| Llama-3.2-3B finomhangolása Unsloth használatával | A Llama-3.2-3B finomhangolása az Unsloth könyvtár használatával. |
| Felügyelt finomhangolás a DeepSpeed és a TRL használatával | A Kiszolgálómentes GPU Python API-t használva felügyelt finomhangolást (SFT) végezhet a Transformer Reinforcement Learning (TRL) könyvtárral, DeepSpeed ZeRO Stage 3 optimalizálással. |
| LORA finomhangolás az Axolotl segítségével | A Serverless GPU Python API-val a LORA segítségével finomhangolhat egy Olmo3 7B modellt az Axolotl könyvtár használatával. |
Videó bemutató
Ez a videó részletesen végigvezeti a Llama-3.2-3B finomhangolásán unsloth példajegyzetfüzettel (12 perc).