Notes
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cette documentation couvre la configuration de scénarios d’apprentissage automatique (ML) accéléré par GPU pour le sous-système Windows pour Linux (WSL) et Windows natif.
Cette fonctionnalité prend en charge les scénarios professionnels et débutants. Vous trouverez ci-dessous des conseils étape par étape sur la configuration de votre système en fonction de votre niveau d’expertise en ML, de votre fournisseur de GPU et de la bibliothèque de logiciels que vous avez l’intention d’utiliser.
NVIDIA CUDA dans WSL
Si vous êtes un scientifique des données professionnel qui utilise quotidiennement un environnement Linux natif pour le développement et l’expérimentation de ML en boucle interne, et que vous disposez d’un GPU NVIDIA, nous vous recommandons de configurer NVIDIA CUDA dans WSL.
PyTorch avec DirectML
Pour utiliser PyTorch avec un cadre qui fonctionne sur l’ensemble des GPU compatibles DirectX 12, nous vous recommandons de configurer le package PyTorch avec DirectML . Ce package accélère les flux de travail sur les GPU AMD, Intel et NVIDIA.
Si vous êtes plus familier avec un environnement Linux natif, nous vous recommandons d’exécuter PyTorch avec DirectML dans WSL.
Si vous êtes plus familier avec Windows, nous vous recommandons d’exécuter PyTorch avec DirectML sur Windows natif.
TensorFlow avec DirectML
Important
Ce projet est maintenant abandonné et n’est plus en cours.
Pour utiliser TensorFlow avec un cadre qui fonctionne sur l’ensemble des GPU compatibles DirectX 12, nous vous recommandons de configurer le package TensorFlow avec DirectML. Ce package accélère les flux de travail sur les GPU AMD, Intel et NVIDIA.