Treinamento de ML acelerado de GPU
Esta documentação aborda a configuração de cenários de treinamento de aprendizado de máquina acelerado por GPU (ML) para o Windows Subsystem para Linux (WSL) e Windows nativo.
Essa funcionalidade oferece suporte a cenários para profissionais e iniciantes. Abaixo, você encontrará indicações para guias passo a passo sobre como configurar seu sistema, dependendo do seu nível de experiência em ML, do fornecedor da GPU e da biblioteca de software que você pretende usar.
NVIDIA CUDA no WSL
Se você for um cientista de dados profissional que usa um ambiente Linux nativo no dia a dia para desenvolvimento e experimentação de ML em loop interno e tem uma GPU NVIDIA, recomendamos configurar o NVIDIA CUDA no WSL.
TensorFlow com exemplos de DirectML
Se você for um estudante, iniciante ou profissional que usa o TensorFlow e estiver procurando uma estrutura que funcione em toda a amplitude de GPUs compatíveis com DirectX 12, recomendamos configurar o pacote TensorFlow com DirectML. Este pacote acelera os fluxos de trabalho nas GPUs AMD, Intel e NVIDIA.
Se você estiver mais familiarizado com um ambiente Linux nativo, recomendamos executar o TensorFlow com DirectML dentro do WSL.
Se você estiver mais familiarizado com o Windows, recomendamos executar o TensorFlow com DirectML no Windows nativo.
PyTorch com DirectML
Se você for um estudante, iniciante ou profissional que usa o PyTorch e estiver procurando uma estrutura que funcione em toda a amplitude de GPUs compatíveis com DirectX 12, recomendamos configurar o pacote PyTorch com DirectML. Este pacote acelera os fluxos de trabalho nas GPUs AMD, Intel e NVIDIA.
Se você estiver mais familiarizado com um ambiente Linux nativo, recomendamos executar o PyTorch com DirectML dentro do WSL.
Se você estiver mais familiarizado com o Windows, recomendamos executar o PyTorch com DirectML no Windows nativo.