Delen via


Versnelde ML-training voor GPU

Windows ML-afbeelding

In deze documentatie wordt beschreven hoe u trainingsscenario's voor GPU versnelde machine learning (ML) instelt voor het Windows-subsysteem voor Linux (WSL) en systeemeigen Windows.

Deze functionaliteit ondersteunt zowel professionele als beginnersscenario's. Hieronder vindt u stapsgewijze handleidingen voor het instellen van uw systeem, afhankelijk van uw expertise in ML, uw GPU-leverancier en de softwarebibliotheek die u wilt gebruiken.

NVIDIA CUDA in WSL

Als u een professionele data scientist bent die dagelijks een systeemeigen Linux-omgeving gebruikt voor ml-ontwikkeling en experimenten in de interne lus en u een NVIDIA GPU hebt, raden we u aan NVIDIA CUDA in WSL in te stellen.

PyTorch met DirectML

Als u PyTorch wilt gebruiken met een framework dat in de breedte van directX 12 compatibele GPU's werkt, raden we u aan om het PyTorch-pakket met DirectML in te stellen. Dit pakket versnelt werkstromen op AMD, Intel en NVIDIA GPU's.

Als u meer vertrouwd bent met een systeemeigen Linux-omgeving, raden we u aan PyTorch met DirectML in WSL uit te voeren.

Als u bekend bent met Windows, raden we u aan PyTorch met DirectML uit te voeren op systeemeigen Windows.

TensorFlow met DirectML

Belangrijk

Dit project wordt nu stopgezet en wordt niet actief aan gewerkt.

Als u TensorFlow wilt gebruiken met een framework dat in de breedte van directX 12 compatibele GPU's werkt, raden we u aan het TensorFlow-pakket in te stellen met DirectML-pakket. Dit pakket versnelt werkstromen op AMD, Intel en NVIDIA GPU's.

Volgende stappen