"ND" サブファミリ GPU 高速化仮想マシン サイズ シリーズ
適用対象: ✔️ Linux VM ✔️ Windows VM ✔️ フレキシブル スケール セット ✔️ 均一スケール セット
"ND" サブファミリの VM サイズ シリーズは、Azure の GPU アクセラレーション VM インスタンスの 1 つです。 強力な GPU アクセラレーションの恩恵を受けるディープ ラーニング、AI 研究、ハイパフォーマンス コンピューティング タスク向けに設計されています。 NVIDIA GPU を搭載した ND シリーズ VM は、複雑な機械学習モデルのトレーニングと推論に特化した機能を提供し、計算の高速化と大規模なデータセットの効率的な処理が容易になります。 そのため、AI 開発とシミュレーションにおける学術および商用アプリケーションに特に適しています。このような場合、ニューラル ネットワーク処理やその他の計算量の多いタスクで迅速かつ正確な結果を達成するには、最先端の GPU テクノロジが不可欠です。
ワークロードとユース ケース
AI とディープ ラーニング: ND ファミリ VM は、複雑なディープ ラーニング モデルのトレーニングとデプロイに最適です。 強力な NVIDIA GPU を搭載し、大規模なデータセットを使った広範なニューラル ネットワーク トレーニングの処理に必要な計算能力を備えているため、トレーニング時間を大幅に短縮できます。
ハイパフォーマンス コンピューティング (HPC): ND ファミリ VM は、GPU アクセラレーションを必要とする HPC アプリケーションに適しています。 科学研究、エンジニアリング シミュレーション (計算流体力学など)、ゲノム処理などの分野では、ND シリーズ VM の高スループット計算機能の恩恵を受けることができます。
グラフィックス レンダリング: ND ファミリの GPU は、アニメーションや動画制作のリアルタイム レンダリング、仮想現実環境の高忠実度シミュレーションなど、グラフィックスを多用するタスクに最適です。
リモート視覚化: ND ファミリ VM は、データ集中型タスクのリモート視覚化に使用できます。このような場合、クラウド上で複雑な視覚化を処理およびレンダリングし、性能の低いクライアント マシンからのアクセスを容易にするには、ハイエンド GPU 機能が必要です。
ファミリ内のシリーズ
ND シリーズ V1
ND シリーズは、AI やディープ ラーニングのワークロードを想定して GPU ファミリーに新たに追加された仮想マシンです。 トレーニングや推論で優れたパフォーマンスを発揮します。 ND インスタンスは、NVIDIA Tesla P40 GPU および Intel Xeon E5-2690 v4 (Broadwell) CPU を搭載しています。 これらのインスタンスは、Microsoft Cognitive Toolkit、TensorFlow、Caffe などのフレームワークを活用する AI ワークロードの単精度浮動小数点演算において、非常に高いパフォーマンスを発揮します。 ND シリーズでは GPU のメモリ サイズ (24 GB) も大幅に増強されているため、より大規模なニューラル ネット モデルにも対応できます。 NC シリーズと同様に、ND シリーズでは 2 番目に少ない待機時間、RDMA を利用した高スループットのネットワーク、InfiniBand との接続性などを備えた構成が利用できます。これにより、多数の GPU を利用した大規模なトレーニング ジョブを実行できます。
部分 | Quantity 数値単位 |
仕様 SKU ID、パフォーマンス単位など |
---|---|---|
プロセッサ | 6 から 24 個の vCPU | Intel Xeon E5-2690 v4 (Broadwell) [x86-64] |
[メモリ] | 112 から 448 GiB | |
ローカル ストレージ | 1 個のディスク | 736 - 2948 GiB |
リモート ストレージ | 12 から 32 個のディスク | 20,000 から 80,000 IOPS 200 から 800 MBps |
ネットワーク | 4 - 8NIC | |
アクセラレータ | 1 - 4 GPU | Nvidia Tesla P40 GPU (24 GB) |
NDv2 シリーズ
NDv2 シリーズは、きわめて要求の厳しい GPU アクセラレーション AI、機械学習、シミュレーション、HPC ワークロードのニーズに合わせて設計された GPU ファミリに新たに追加された仮想マシンです。
NDv2 は、それぞれ 32 GB の GPU メモリを搭載した、NVIDIA Tesla V100 NVLINK 接続の GPU を 8 個備えています。 また、各 NDv2 VM には、ハイパースレッド非対応の Intel Xeon Platinum 8168 (Skylake) コアが 40 個と 672 GiB のシステム メモリが備わっています。
NDv2 インスタンスは、CUDA GPU 最適化計算カーネルと、GPU アクセラレーションを "標準" でサポートするさまざまな AI、ML、分析ツール (TensorFlow、Pytorch、Caffe、RAPIDS フレームワークなど) を活用して、HPC や AI ワークロードで優れたパフォーマンスを発揮します。
特筆すべき点として、NDv2 は、計算量の多いワークロードのスケールアップ (VM あたり 8 個の GPU を使用) とスケールアウト (複数の VM を連携) の両方に対応するように構築されています。 NDv2 シリーズは現在、HB シリーズの HPC VM と同様の 100 Gigabit InfiniBand EDR バックエンド ネットワークをサポートしており、ハイパフォーマンスのクラスタリングによって、AI と ML の分散トレーニングを含む並列シナリオに対応します。 このバックエンド ネットワークは、NVIDIA の NCCL2 ライブラリで採用されているプロトコルも含め、主要な InfiniBand プロトコルをすべてサポートしているため、GPU のシームレスなクラスタリングが実現します。
部分 | Quantity 数値単位 |
仕様 SKU ID、パフォーマンス単位など |
---|---|---|
プロセッサ | 40 vCPU | Intel Xeon Platinum 8168 (Skylake) [x86-64] |
[メモリ] | 672 GiB | |
ローカル ストレージ | 1 個のディスク | 2948 GiB |
リモート ストレージ | 32 個のディスク | 80,000 IOPS 800 MBps |
ネットワーク | 8 NIC | 24000 Mbps |
アクセラレータ | なし |
ND_A100_v4 シリーズ
ND A100 v4 シリーズの仮想マシン (VM) は、Azure GPU ファミリに新たに追加された主力製品です。 これらのサイズは、ハイエンドのディープ ラーニング トレーニングと、密結合のスケールアップおよびスケールアウト HPC ワークロード向けに設計されています。
ND A100 v4 シリーズは、単一の VM と 8 つの NVIDIA Ampere A100 40GB Tensor Core GPU から始まります。 ND A100 v4 ベースのデプロイでは、VM あたり 1.6 TB/秒の相互接続帯域幅を備えた数千の GPU までスケールアップできます。 VM 内の各 GPU には、トポロジに依存しない専用の 200 GB/秒 NVIDIA Mellanox HDR InfiniBand 接続が用意されています。 これらの接続は、同じ Azure 仮想マシン スケール セットを占有する VM 間で自動的に構成され、GPU Direct RDMA をサポートします。
各 GPU には、VM 内の通信用の NVLINK 3.0 接続が備わっており、その背後には、物理 CPU コア数が 96 個の第 2 世代 AMD Epyc™ 7V12 (Rome) が搭載されています。
これらのインスタンスは、GPU アクセラレーションを "標準" でサポートするさまざまな AI、ML、分析ツール (TensorFlow、Pytorch、Caffe、RAPIDS、そのほかのフレームワークなど) を活用して、優れたパフォーマンスを発揮します。 さらに、GPU のシームレスなクラスタリングのために、スケールアウト InfiniBand 相互接続により、NVIDIA の NCCL2 通信ライブラリ上に構築された既存の AI および HPC ツールの大規模なセットがサポートされています。
部分 | Quantity 数値単位 |
仕様 SKU ID、パフォーマンス単位など |
---|---|---|
プロセッサ | 96 個の vCPU | AMD EPYC 7V12 (Rome) [x86-64] |
[メモリ] | 900 GiB | |
ローカル ストレージ | 1 個のディスク | 6,000 GiB |
リモート ストレージ | 32 個のディスク | 80,000 IOPS 800 MBps |
ネットワーク | 8 NIC | 24000 Mbps |
アクセラレータ | 8 GPU | Nvidia A100 GPU (40 GB) |
NDm_A100_v4 シリーズ
NDm A100 v4 シリーズの仮想マシン (VM) は、Azure GPU ファミリに新たに追加された主力製品です。 これらのサイズは、ハイエンドのディープ ラーニング トレーニングと、密結合のスケールアップおよびスケールアウト HPC ワークロード向けに設計されています。
NDm A100 v4 シリーズは、単一の VM と 8 つの NVIDIA Ampere A100 80GB Tensor Core GPU から始まります。 NDm A100 v4 ベースのデプロイでは、VM あたり 1.6 TB/秒の相互接続帯域幅を備えた数千の GPU までスケールアップできます。 VM 内の各 GPU には、トポロジに依存しない専用の 200 GB/秒 NVIDIA Mellanox HDR InfiniBand 接続が用意されています。 これらの接続は、同じ Azure 仮想マシン スケール セットを占有する VM 間で自動的に構成され、GPU Direct RDMA をサポートします。
各 GPU には、VM 内の通信用の NVLINK 3.0 接続が備わっており、その背後には、物理 CPU コア数が 96 個の第 2 世代 AMD Epyc™ 7V12 (Rome) が搭載されています。
これらのインスタンスは、GPU アクセラレーションを "標準" でサポートするさまざまな AI、ML、分析ツール (TensorFlow、Pytorch、Caffe、RAPIDS、そのほかのフレームワークなど) を活用して、優れたパフォーマンスを発揮します。 さらに、GPU のシームレスなクラスタリングのために、スケールアウト InfiniBand 相互接続により、NVIDIA の NCCL2 通信ライブラリ上に構築された既存の AI および HPC ツールの大規模なセットがサポートされています。
部分 | Quantity 数値単位 |
仕様 SKU ID、パフォーマンス単位など |
---|---|---|
プロセッサ | 96 個の vCPU | AMD EPYC 7V12 (Rome) [x86-64] |
[メモリ] | 1,900 GiB | |
ローカル ストレージ | 1 個のディスク | 6,400 GiB |
リモート ストレージ | 32 個のディスク | 80,000 IOPS 800 MBps |
ネットワーク | 8 NIC | 24000 Mbps |
アクセラレータ | 8 GPU | Nvidia A100 GPU (80 GB) |
ND_H100_v5 シリーズ
ND H100 v5 シリーズの仮想マシン (VM) は、Azure GPU ファミリに新たに追加された主力製品です。 このシリーズは、ハイエンドのディープ ラーニング トレーニングと、密結合のスケールアップおよびスケールアウト生成 AI と HPC ワークロード向けに設計されています。
ND H100 v5 シリーズは、単一の VM と 8 つの NVIDIA H100 Tensor Core GPU から始まります。 ND H100 v5 ベースのデプロイでは、VM あたり 3.2 Tbps の相互接続帯域幅を備えた数千の GPU までスケールアップできます。 VM 内の各 GPU には、トポロジに依存しない専用の 400 Gb/秒 NVIDIA Quantum-2 CX7 InfiniBand 接続が用意されています。 これらの接続は、同じ仮想マシン スケール セットを占有する VM 間で自動的に構成され、GPU Direct RDMA をサポートします。
各 GPU には、VM 内の通信用の NVLINK 4.0 接続が備わっており、インスタンスには、物理 CPU コア数が 96 個の第 4 世代 Intel Xeon スケーラブル プロセッサが搭載されています。
これらのインスタンスは、GPU アクセラレーションを "標準" でサポートするさまざまな AI、ML、分析ツール (TensorFlow、Pytorch、Caffe、RAPIDS、そのほかのフレームワークなど) を活用して、優れたパフォーマンスを発揮します。 さらに、GPU のシームレスなクラスタリングのために、スケールアウト InfiniBand 相互接続により、NVIDIA の NCCL 通信ライブラリ上に構築された既存の AI および HPC ツールの大規模なセットがサポートされています。
部分 | Quantity 数値単位 |
仕様 SKU ID、パフォーマンス単位など |
---|---|---|
プロセッサ | 96 個の vCPU | Intel Xeon (Sapphire Rapids) [x86-64] |
[メモリ] | 1,900 GiB | |
ローカル ストレージ | 1 個のディスク | 28,000 GiB |
リモート ストレージ | 32ディスク | |
ネットワーク | 8 NIC | |
アクセラレータ | 8 GPU | Nvidia H100 GPU (80GB) |
ND_MI300X_v5 シリーズ
ND MI300X v5 シリーズの仮想マシン (VM) は、Azure GPU ファミリに新たに追加された主力製品です。 これは、ハイエンドのディープ ラーニング トレーニング、および密接に関連したスケールアップおよびスケールアウト生成 AI と HPC ワークロード向けに設計されました。
ND MI300X v5 シリーズ VM の初期状態は、8 個の AMD Instinct MI300 GPU と合計の物理コア数が 96 個となる 2 個の第 4 世代 Intel Xeon スケーラブル プロセッサとなります。 そして、VM 内の各 GPU は、GPU あたり 128 GB/秒の帯域幅と 896 GB/秒の合計帯域幅を持つ第 4 世代 AMD Infinity Fabric リンクを介して相互に接続されます。
ND MI300X v5 ベースのデプロイは、VM あたり 3.2 Tb/秒の相互接続帯域幅を備える数千個の GPU までスケールアップできます。 VM 内の各 GPU には、トポロジに依存しない専用の 400 Gb/秒 NVIDIA Quantum-2 CX7 InfiniBand 接続が用意されています。 これらの接続は、同じ仮想マシンスケール セットを占有する VM 間で自動的に構成され、GPUDirect RDMA をサポートします。
これらのインスタンスは、GPU アクセラレーションを "標準" でサポートするさまざまな AI、ML、分析ツール (TensorFlow、Pytorch、その他のフレームワーク) のための優れたパフォーマンスを発揮します。 さらに、スケールアウト InfiniBand 相互接続は、GPU のシームレスなクラスタリングのために、AMD の ROCm Communication Collectives Library (RCCL) 上に構築された既存の AI および HPC ツールの大規模なセットをサポートします。
部分 | Quantity 数値単位 |
仕様 SKU ID、パフォーマンス単位など |
---|---|---|
プロセッサ | 96 個の vCPU | Intel Xeon (Sapphire Rapids) [x86-64] |
[メモリ] | 1850 GiB | |
ローカル ストレージ | 1 個の一時ディスク 8 個の NVMe ディスク |
1000 GiB の一時ディスク 28000 GiB の NVMe ディスク |
リモート ストレージ | 32 個のディスク | 80,000 IOPS 1200 MBps |
ネットワーク | 8 NIC | |
アクセラレータ | 8 GPU | AMD Instinct MI300X GPU (192GB) |
前世代の ND ファミリ シリーズ
以前のサイズについては、前世代のサイズを参照してください。
サイズに関するその他の情報
利用可能なすべてのサイズのリスト: サイズ
料金計算ツール: 料金計算ツール
ディスクの種類の情報: ディスクの種類
次のステップ
Azure コンピューティング ユニット (ACU) を確認することで、Azure SKU 全体の処理性能を比較できます。
1 つの Azure サブスクリプションに割り当てられた 1 つ以上の仮想マシンをホストできる物理サーバーについては、Azure 専用ホストを確認してください。
Azure Virtual Machines を監視する方法をご確認ください。