이 설명서에서는 WSL( Linux용 Windows 하위 시스템 ) 및 네이티브 Windows에 대한 GPU ML(가속 기계 학습) 학습 시나리오를 설정하는 방법에 대해 설명합니다.
이 기능은 전문 시나리오와 초급 시나리오를 모두 지원합니다. 아래에서는 ML, GPU 공급업체 및 사용하려는 소프트웨어 라이브러리의 전문 지식 수준에 따라 시스템을 설정하는 방법에 대한 단계별 가이드에 대한 포인터를 찾을 수 있습니다.
WSL의 NVIDIA CUDA
내부 루프 ML 개발 및 실험을 위해 네이티브 Linux 환경을 매일 사용하는 전문 데이터 과학자이고 NVIDIA GPU가 있는 경우 WSL에서 NVIDIA CUDA를 설정하는 것이 좋습니다.
PyTorch를 DirectML로 사용하기
다양한 DirectX 12 지원 GPU에서 작동하는 프레임워크에서 PyTorch를 사용하려면 DirectML 패키지로 PyTorch 를 설정하는 것이 좋습니다. 이 패키지는 AMD, Intel 및 NVIDIA GPU에서 워크플로를 가속화합니다.
네이티브 Linux 환경에 더 익숙한 경우 WSL 내에서 DirectML을 사용하여 PyTorch를 실행하는 것이 좋습니다.
Windows에 더 익숙한 경우 네이티브 Windows에서 DirectML을 사용하여 PyTorch를 실행하는 것이 좋습니다.
DirectML을 사용하는 TensorFlow
중요합니다
이 프로젝트는 이제 중단되었으며 현재 작업 중이 아닙니다.
DirectX 12 지원 GPU의 폭에서 작동하는 프레임워크에서 TensorFlow를 사용하려면 DirectML 패키지를 사용하여 TensorFlow를 설정하는 것이 좋습니다. 이 패키지는 AMD, Intel 및 NVIDIA GPU에서 워크플로를 가속화합니다.