Condividi tramite


Modelli linguistici di grandi dimensioni

Importante

Questa funzionalità è in versione beta. Gli amministratori dell'area di lavoro possono controllare l'accesso a questa funzionalità dalla pagina Anteprime . Vedere Gestire le anteprime di Azure Databricks.

Questa pagina fornisce esempi di notebook per ottimizzare i modelli di linguaggio di grandi dimensioni usando il calcolo GPU serverless. Questi esempi illustrano vari approcci all'ottimizzazione, inclusi metodi efficienti per i parametri, ad esempio Low-Rank Adaptation (LoRA) e l'ottimizzazione completa con supervisione.

Ottimizzare il modello Qwen2-0.5B

Il notebook seguente fornisce un esempio di come ottimizzare in modo efficiente il modello Qwen2-0.5B usando:

  • Apprendimento per rinforzo del trasformatore (TRL) per l'ottimizzazione con supervisione
  • Kernel Liger per l'addestramento della memoria con kernel Triton ottimizzati.
  • LoRA per l'ottimizzazione efficiente dei parametri.

Notebook

Ottieni il notebook

Ottimizzare Llama-3.2-3B con Unsloth

Questo notebook illustra come ottimizzare Llama-3.2-3B usando la libreria Unsloth.

Unsloth Llama

Ottieni il notebook

Video dimostrativo

Questo video illustra in dettaglio il notebook (12 minuti).

Ottimizzazione con supervisione con DeepSpeed e TRL

Questo notebook illustra come usare l'API Python Serverless GPU per eseguire la sintonizzazione fine supervisionata (SFT) usando la libreria TRL (Transformer Reinforcement Learning) con l'ottimizzazione DeepSpeed ZeRO Stage 3.

TRL DeepSpeed

Ottieni il notebook

Ottimizzazione di LORA con Axolotl

Questo notebook illustra come utilizzare l'API Python della GPU serverless per effettuare il fine-tuning LORA di un modello Olmo3 7B utilizzando la libreria Axolotl.

Axolotl

Ottieni il notebook