Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En esta documentación se describe la configuración de escenarios de entrenamiento de aprendizaje automático (ML) acelerado por GPU para el Subsistema de Windows para Linux (WSL) y Windows nativo.
Esta funcionalidad es compatible tanto con escenarios profesionales como para principiantes. A continuación, encontrará consejos sobre guías paso a paso sobre cómo configurar su sistema en función de su nivel de experiencia en ML, su proveedor de GPU y la biblioteca de software que pretende utilizar.
NVIDIA CUDA en WSL
Si eres un científico de datos profesional que usa un entorno nativo de Linux en el día a día para el desarrollo y la experimentación de ML en bucle interno, y tienes una GPU NVIDIA, te recomendamos que configures NVIDIA CUDA en WSL.
PyTorch con DirectML
Para usar PyTorch con un marco que funcione en toda la amplitud de las GPU compatibles con DirectX 12, se recomienda configurar el paquete PyTorch con DirectML . Este paquete acelera los flujos de trabajo en las GPU AMD, Intel y NVIDIA.
Si está más familiarizado con un entorno Linux nativo, se recomienda ejecutar PyTorch con DirectML dentro de WSL.
Si está más familiarizado con Windows, le recomendamos que ejecute PyTorch con DirectML en Windows nativo.
TensorFlow con DirectML
Importante
Este proyecto ya está descontinuado y no se está trabajando activamente.
Para usar TensorFlow con un marco que funcione en toda la amplitud de las GPU compatibles con DirectX 12, se recomienda configurar el paquete TensorFlow con DirectML. Este paquete acelera los flujos de trabajo en las GPU AMD, Intel y NVIDIA.