Share via


Gedistribueerde training met DeepSpeed-distributeur

In dit artikel wordt beschreven hoe u gedistribueerde training uitvoert op PyTorch ML-modellen met behulp van de DeepSpeed-distributeur .

De DeepSpeed-distributeur is gebouwd op TorchDistributor en is een aanbevolen oplossing voor klanten met modellen die een hogere rekenkracht vereisen, maar worden beperkt door geheugenbeperkingen.

De DeepSpeed-bibliotheek is een opensource-bibliotheek die is ontwikkeld door Microsoft en beschikbaar is in Databricks Runtime 14.0 ML of hoger. Het biedt geoptimaliseerd geheugengebruik, verminderde communicatieoverhead en geavanceerde pijplijnparallellisme waarmee modellen en trainingsprocedures kunnen worden geschaald die anders onbereikbaar zouden zijn op standaardhardware.

Hier volgen voorbeelden van scenario's waarin de DeepSpeed-distributeur gunstig is:

  • Weinig GPU-geheugen.
  • Training voor groot model.
  • Grote invoergegevens, zoals tijdens batchdeductie.

Voorbeeldnotitieblok voor gedistribueerde training met DeepSpeed

In het volgende notebookvoorbeeld ziet u hoe u gedistribueerde training uitvoert met DeepSpeed-distributeur.

Llama 2 7B-chat afstemmen met DeepspeedTorchDistributor notebook

Notitieblok ophalen