このドキュメントでは、 Windows Subsystem for Linux (WSL) とネイティブ Windows の GPU 高速機械学習 (ML) トレーニング シナリオの設定について説明します。
この機能は、プロフェッショナルなシナリオと初心者のシナリオの両方をサポートします。 以下に、ML の専門知識のレベル、GPU ベンダー、および使用するソフトウェア ライブラリに応じてシステムをセットアップする方法に関するステップバイステップのガイドへのポインタを示します。
WSL での NVIDIA CUDA
あなたがインナーループ ML の開発と実験のためにネイティブの Linux 環境を日常的に使用しているプロのデータ サイエンティストであり、NVIDIA GPU を使用している場合は、 WSL で NVIDIA CUDA を設定することをお勧めします。
DirectML を使った PyTorch
DirectX 12 対応 GPU の幅広範囲で動作するフレームワークで PyTorch を使用するには、 DirectML パッケージを使用して PyTorch を設定することをお勧めします。 このパッケージは、AMD、Intel、NVIDIA GPU でのワークフローを高速化します。
ネイティブの Linux 環境に精通している場合は、 WSL 内で DirectML を使用して PyTorch を実行することをお勧めします。
Windows に詳しい場合は、 ネイティブ Windows で DirectML を使用して PyTorch を実行することをお勧めします。
TensorFlow と DirectML
Von Bedeutung
このプロジェクトは現在廃止され、積極的に取り組んでいません。
DirectX 12 対応 GPU の幅全体で動作するフレームワークで TensorFlow を使用するには、DirectML パッケージを使用して TensorFlow を設定することをお勧めします。 このパッケージは、AMD、Intel、NVIDIA GPU でのワークフローを高速化します。