GPU 高速化による ML トレーニング

Windows ML graphic

このドキュメントでは、Linux 用 Windows サブシステム (WSL) とネイティブ Windows の GPU 高速機械学習 (ML) トレーニング シナリオの設定について説明します。

この機能は、専門家と初心者の両方のシナリオをサポートします。 ML、GPU ベンダー、使用するソフトウェア ライブラリの専門知識のレベルに応じてシステムを設定する方法に関するステップ バイ ステップ ガイドへのポインターを以下に示します。

WSL の NVIDIA CUDA

ネイティブの Linux 環境を日常的に使用して内部ループ ML の開発と実験を行うプロのデータ サイエンティストであり、NVIDIA GPU をお持ちの場合は、WSL の NVIDIA CUDA を設定することをお勧めします。

DirectML を使った TensorFlow

TensorFlow を使用する学生、初心者、または専門家で、DirectX 12 対応 GPU の幅を越えて動作するフレームワークを探している場合は、DirectML を使った TensorFlow パッケージを設定することをお勧めします。 このパッケージは、AMD、Intel、NVIDIA GPU のワークフローを高速化します。

ネイティブ Linux 環境に慣れている場合は、WSL 内で DirectML を使った TensorFlow を実行することをお勧めします。

Windows に詳しい場合は、ネイティブ Windows で DirectML を使った TensorFlow を実行することをお勧めします。

DirectML を使った PyTorch

PyTorch を使用する学生、初心者、または専門家で、DirectX 12 対応 GPU の幅を越えて動作するフレームワークを探している場合は、DirectML を使った PyTorch パッケージを設定することをお勧めします。 このパッケージは、AMD、Intel、NVIDIA GPU のワークフローを高速化します。

ネイティブ Linux 環境に慣れている場合は、WSL 内で DirectML を使った PyTorch を実行することをお勧めします。

Windows に詳しい場合は、ネイティブ Windows で DirectML を使った PyTorch を実行することをお勧めします。

次のステップ