次の方法で共有


GPU 高速化による ML トレーニング

Windows ML のグラフィックス

このドキュメントでは、 Windows Subsystem for Linux (WSL) とネイティブ Windows の GPU 高速機械学習 (ML) トレーニング シナリオの設定について説明します。

この機能は、プロフェッショナルなシナリオと初心者のシナリオの両方をサポートします。 以下に、ML の専門知識のレベル、GPU ベンダー、および使用するソフトウェア ライブラリに応じてシステムをセットアップする方法に関するステップバイステップのガイドへのポインタを示します。

WSL での NVIDIA CUDA

あなたがインナーループ ML の開発と実験のためにネイティブの Linux 環境を日常的に使用しているプロのデータ サイエンティストであり、NVIDIA GPU を使用している場合は、 WSL で NVIDIA CUDA を設定することをお勧めします。

DirectML を使った PyTorch

DirectX 12 対応 GPU の幅広範囲で動作するフレームワークで PyTorch を使用するには、 DirectML パッケージを使用して PyTorch を設定することをお勧めします。 このパッケージは、AMD、Intel、NVIDIA GPU でのワークフローを高速化します。

ネイティブの Linux 環境に精通している場合は、 WSL 内で DirectML を使用して PyTorch を実行することをお勧めします。

Windows に詳しい場合は、 ネイティブ Windows で DirectML を使用して PyTorch を実行することをお勧めします。

TensorFlow と DirectML

Von Bedeutung

このプロジェクトは現在廃止され、積極的に取り組んでいません。

DirectX 12 対応 GPU の幅全体で動作するフレームワークで TensorFlow を使用するには、DirectML パッケージを使用して TensorFlow を設定することをお勧めします。 このパッケージは、AMD、Intel、NVIDIA GPU でのワークフローを高速化します。

次のステップ