次の方法で共有


Azure での GPU コンピューティング ワークロードの移行ガイド

より強力な GPU がマーケットプレースおよび Microsoft Azure データセンターで使用できる状態になったら、ワークロードのパフォーマンスを再評価し、新しい GPU への移行を検討することをお勧めします。

同じ理由から、また高品質で信頼性の高いサービス オファリングを維持するために、Azure では古い VM サイズを稼働するハードウェアを定期的に廃止しています。 Azure で廃止される GPU 製品の最初のグループは、NVIDIA Tesla K80、P100、P40 のデータセンター GPU アクセラレータをそれぞれ利用した、当初の NC、NC v2、ND シリーズの VM です。 これらの製品は 2023 年 8 月 31 日に廃止される予定で、このシリーズで最も古い VM は 2016 年に導入されました。

それ以降、GPU はディープ ラーニングと HPC 業界全体と共に大きな進歩を遂げ、通常は世代間のパフォーマンスが 2 倍を超えています。 NVIDIA K80、P40、P100 GPU の発表以降、Azure では新しい世代とカテゴリの VM 製品を複数出荷してきました。これらの製品は、NVIDIA の T4、V100、A100 GPU に基づいて GPU で高速化されたコンピューティングと AI を実行し、InfiniBand ベースの相互接続ファブリックなどのオプション機能によって差別化されています。 これらはすべて、お客様に移行パスとして検討することを推奨するオプションです。

ほとんどの場合、新しい世代の GPU によってパフォーマンスが大幅に向上することで、GPU 使用時間あたりのコストが変化することがあっても、バースト可能なジョブについてジョブの実行時間が短縮されたり、コンピューティング リソースについての固定サイズの需要に応えるのに必要な GPU 対応 VM の全体量が削減されたりすることによって、TCO が減少します。 これらの利点に加えて、お客様はパフォーマンスの高い VM によって解決までの時間を短縮でき、新しいソフトウェア、CUDA ランタイム、およびドライバー バージョンを採用することによってソリューションの正常性とサポート性を向上させることができます。

移行と最適化の比較

Azure では、お客様には特定の GPU VM 製品の選択に影響する複数の要件があることを認識しています。これには GPU アーキテクチャの考慮事項、相互接続、TCO、解決までの時間、地域的なコンプライアンスや待ち時間の要件に基づくリージョン別の利用可能性などがあり、これらのいくつかは、時間の経過につれて変化することもあります。

また、GPU アクセラレーションは急速に進化している新しい領域でもあります。

したがって、この製品領域には真に汎用的な指針がないため、クラスター化されたデプロイ モデルから単一の大規模 8 GPU VM への (あるいはその逆への) 移動、精度の低いデータ型の活用、マルチインスタンス GPU などの機能の採用など、移行のタイミングが、ワークロードへの潜在的な劇的な変化を再評価する上で最も適しています。

世代ごとの GPU パフォーマンスが既に劇的に増加しているのはどのような状況か、TensorCores の追加などによりパフォーマンスが桁違いに増加できる機能はどれかといった種類の検討は、極めてワークロードに固有のものです。

アプリケーションのアーキテクチャ見直しと移行を組み合わせることで、大きな価値を生み出し、コストと解決までの時間を改善することができます。

ただし、これらの種類の改善は、このドキュメントの範囲を超えています。ここでは、現在お客様が実行できる一般化されたワークロードに対する直接的な同等のクラスに焦点を当て、GPU あたりの価格 "および" パフォーマンスの両方で、廃止される既存の VM ファミリに最も近い VM オプションを特定することです。

したがって、このドキュメントでは、必要な VM インスタンス、GPU、相互接続の数など、ワークロード固有のプロパティに対する分析情報や制御をユーザーが持っていない場合があることを想定しています。

NVIDIA K80 GPU を搭載した NC シリーズの VM

NC (v1) シリーズの VM は、Azure の最も古い GPU 高速コンピューティングの VM タイプで、Intel Xeon E5-2690 v3 (Haswell) プロセッサとペアになった 1 から 4 個の NVIDIA Tesla K80 データセンター GPU アクセラレーターによって稼働されます。 かつては、要求の厳しい AI、ML、HPC の用途向けの主力 VM のタイプでした。1 ドルあたりのスループットが高い GPU よりも、GPU 使用時間あたりの絶対コストが非常に低いことを評価するユーザーによって、製品ライフサイクルの後半も (特に NC シリーズのキャンペーン価格を通じて) 好んで選ばれました。

今日では、新しい GPU を搭載した VM シリーズに比べて旧型の NVIDIA K80 GPU プラットフォームは、コンピューティング パフォーマンスが比較的低いことから、NC シリーズの一般的なユース ケースは、リアルタイムの推論と分析ワークロードです。この場合、アプリケーションからの要求が到着したときに要求に対応するために、高速 VM が安定状態で利用できる必要があります。 これらのケースでは、要求の量またはバッチ サイズが不十分なため、パフォーマンスの高い GPU のメリットが得られない場合もあります。 NC VM は、GPU アクセラレーションについて学習し、開発し、または実験する開発者や学生にも人気があります。これらのユーザーは、実稼働レベルで実行する必要がない、反復処理を行う低コストのクラウドベースの CUDA デプロイ ターゲットを必要としています。

一般に、NC シリーズをご利用のお客様は、NC サイズから、NVIDIA Tesla T4 GPU を利用する Azure の軽量ワークロード用の新しい GPU 加速プラットフォームである NC T4 v3 サイズに直接移行することを検討する必要があります。

現在の VM サイズ 目標とする VM サイズ 仕様の違い
Standard_NC6
Standard_NC6_Promo
Standard_NC4as_T4_v3
または
Standard_NC8as_T4
CPU: Intel Haswell と AMD Rome
GPU 数: 1 (同じ)
GPU 世代: NVIDIA Keppler と Turing (+2 世代、~2x FP32 FLOPs)
GPU メモリ (GPU あたり GiB): 16 (+4)
vCPU: 4 (-2) または 8 (+2)
メモリ GiB: 16 (-40) または 56 (同じ)
一時ストレージ (SSD) GiB: 180 (-160) または 360 (+20)
最大データ ディスク数: 8 (-4) または 16 (+4)
高速ネットワーク: あり (+)
Premium Storage: あり (+)
Standard_NC12
Standard_NC12_Promo
Standard_NC16as_T4_v3 CPU: Intel Haswell と AMD Rome
GPU 数: 1 (-1)
GPU 世代: NVIDIA Keppler と Turing (+2 世代、~2x FP32 FLOPs)
GPU メモリ (GPU あたり GiB): 16 (+4)
vCPU: 16 (+4)
メモリ: GiB 110 (-2)
一時ストレージ (SSD) GiB: 360 (-320)
最大データ ディスク数: 48 (+16)
高速ネットワーク: あり (+)
Premium Storage: あり (+)
Standard_NC24
Standard_NC24_Promo
Standard_NC64as_T4_v3* CPU: Intel Haswell と AMD Rome
GPU 数: 4 (同じ)
GPU 世代: NVIDIA Keppler と Turing (+2 世代、~2x FP32 FLOPs)
GPU メモリ (GPU あたり GiB): 16 (+4)
vCPU: 64 (+40)
メモリ GiB: 440 (+216)
一時ストレージ (SSD) GiB: 2880 (+1440)
最大データ ディスク数: 32 (-32)
高速ネットワーク: あり (+)
Premium Storage: あり (+)
Standard_NC24r
Standard_NC24r_Promo
Standard_NC64as_T4_v3* CPU: Intel Haswell と AMD Rome
GPU 数: 4 (同じ)
GPU 世代: NVIDIA Keppler と Turing (+2 世代、~2x FP32 FLOPs)
GPU メモリ (GPU あたり GiB): 16 (+4)
vCPU: 64 (+40)
メモリ GiB: 440 (+216)
一時ストレージ (SSD) GiB: 2880 (+1440)
最大データ ディスク数: 32 (-32)
高速ネットワーク: あり (+)
Premium Storage: あり (+)
InfiniBand 相互接続: なし

NVIDIA Tesla P100 GPU を搭載した NC v2 シリーズの VM

NC v2 シリーズの仮想マシンは、AI やディープ ラーニングのワークロード向けに元々設計された主力プラットフォームです。 これらは GPU あたりのパフォーマンスが元の NC シリーズの約 2 倍で、NVIDIA Tesla P100 GPU および Intel Xeon E5-2690 v4 (Broadwell) CPU で稼働し、ディープ ラーニングのトレーニングに対して優れたパフォーマンスを提供します。 NC および ND シリーズと同様に、NC v2 シリーズでは RDMA を利用した低遅延で高スループットなセカンダリ ネットワーク、InfiniBand との接続性などを備えた構成が利用できます。これにより、多数の GPU を利用した大規模なトレーニング ジョブを実行できます。

一般に、NCv2 シリーズをご利用のお客様は、NVIDIA Ampere A100 PCIe GPU を利用する Azure の新しい GPU 加速プラットフォームである NC A100 v4 サイズに直接移行することを検討する必要があります。

現在の VM サイズ 目標とする VM サイズ 仕様の違い
Standard_NC6s_v2 Standard_NC24ads_A100_v4 CPU: Intel Broadwell と AMD Milan
GPU 数: 1 (同じ)
GPU 世代: NVIDIA Pascal と Ampere (+2 世代)
GPU メモリ (GPU あたり GiB): 80 (+64)
vCPU: 24 (+18)
メモリ: GiB 220 (+108)
一時ストレージ (SSD) GiB: 1123 (+387)
最大データ ディスク数: 12 (同じ)
高速ネットワーク: あり (+)
Premium Storage: あり (+)
Standard_NC12s_v2 Standard_NC48ads_A100_v4 CPU: Intel Broadwell と AMD Milan
GPU 数: 2 (同じ)
GPU 世代: NVIDIA Pascal と Ampere (+2 世代)
GPU メモリ (GPU あたり GiB): 80 (+64)
vCPU: 48 (+36)
メモリ GiB: 440 (+216)
一時ストレージ (SSD) GiB: 2246 (+772)
最大データ ディスク数: 24 (同じ)
高速ネットワーク: あり (+)
Premium Storage: あり (+)
Standard_NC24s_v2 Standard_NC96ads_A100_v4 CPU: Intel Broadwell と AMD Milan
GPU 数: 4 (同じ)
GPU 世代: NVIDIA Pascal と Ampere (+2 世代)
GPU メモリ (GPU あたり GiB): 80 (+64)
vCPU: 96 (+72)
メモリ: GiB 880 (+432)
一時ストレージ (SSD) GiB: 4492 (+1544)
最大データ ディスク数: 32 (同じ)
高速ネットワーク: あり (+)
Premium Storage: あり (+)
Standard_NC24rs_v2 Standard_NC96ads_A100_v4 CPU: Intel Broadwell と AMD Milan
GPU 数: 4 (同じ)
GPU 世代: NVIDIA Pascal と Ampere (+2 世代)
GPU メモリ (GPU あたり GiB): 80 (+64)
vCPU: 96 (+72)
メモリ: GiB 880 (+432)
一時ストレージ (SSD) GiB: 4492 (+1544)
最大データ ディスク数: 32 (同じ)
高速ネットワーク: あり (+)
Premium Storage: あり (+)
InfiniBand 相互接続: なし (-)

NVIDIA Tesla P40 GPU を搭載した ND シリーズの VM

ND シリーズの仮想マシンは、AI やディープ ラーニングのワークロード向けに元々設計されたミッドレンジ プラットフォームです。 これらは旧型に比べて単精度浮動小数点演算が改善されたことによりバッチ推論に対して優れたパフォーマンスを提供し、NVIDIA Tesla P40 GPU と Intel Xeon E5-2690 v4 (Broadwell) CPU で稼働しています。 NC および NC v2 シリーズと同様に、ND シリーズでは RDMA を利用した低遅延で高スループットなセカンダリ ネットワーク、InfiniBand との接続性などを備えた構成が利用できます。これにより、多数の GPU を利用した大規模なトレーニング ジョブを実行できます。

現在の VM サイズ 目標とする VM サイズ 仕様の違い
Standard_ND6 Standard_NC4as_T4_v3
or
Standard_NC8as_T4_v3
CPU: Intel Broadwell と AMD Rome
GPU 数: 1 (同じ)
GPU 世代: NVIDIA Pascal と Turing (+1 世代)
GPU メモリ (GPU あたり GiB): 16 (-8)
vCPU: 4 (-2) または 8 (+2)
メモリ GiB: 16 (-40) または 56 (-56)
一時ストレージ (SSD) GiB: 180 (-552) または 360 (-372)
最大データ ディスク数: 8 (-4) または 16 (+4)
高速ネットワーク: あり (+)
Premium Storage: あり (+)
Standard_ND12 Standard_NC16as_T4_v3 CPU: Intel Broadwell と AMD Rome
GPU 数: 1 (-1)
GPU 世代: NVIDIA Pascal と Turing (+1 世代)
GPU メモリ (GPU あたり GiB): 16 (-8)
vCPU: 16 (+4)
メモリ GiB: 110 (-114)
一時ストレージ (SSD) GiB: 360 (-1,114)
最大データ ディスク数: 48 (+16)
高速ネットワーク: あり (+)
Premium Storage: あり (+)
Standard_ND24 Standard_NC64as_T4_v3* CPU: Intel Broadwell と AMD Rome
GPU 数: 4 (同じ)
GPU 世代: NVIDIA Pascal と Turing (+1 世代)
GPU メモリ (GPU あたり GiB): 16 (-8)
vCPU: 64 (+40)
メモリ GiB: 440 (同じ)
一時ストレージ (SSD) GiB: 2880 (同じ)
最大データ ディスク数: 32 (同じ)
高速ネットワーク: あり (+)
Premium Storage: あり (+)
Standard_ND24r Standard_ND96amsr_A100_v4 CPU: Intel Broadwell と AMD Rome
GPU 数: 8 (+4)
GPU 世代: NVIDIA Pascal と Ampere (+2 世代)
GPU メモリ (GPU あたり GiB): 80 (+56)
vCPU: 96 (+72)
メモリ: GiB 1900 (+1452)
一時ストレージ (SSD) GiB: 6400 (+3452)
最大データ ディスク数: 32 (同じ)
高速ネットワーク: あり (+)
Premium Storage: あり (+)
InfiniBand 相互接続: あり (同じ)

移行の手順

一般的な変更

  1. 移行用のシリーズとサイズを選択します。 詳細な分析情報については、料金計算ツールを利用してください。

  2. ターゲット VM シリーズのクォータを取得します

  3. 現在の N* シリーズの VM サイズをターゲット サイズに変更します。 ここで、仮想マシン イメージによって使用されるオペレーティング システムを更新したり、開始点としてドライバーが事前にインストールされている HPC イメージの 1 つを採用したりするとよい場合もあります。

    重要

    お使いの VM イメージは、新しい GPU VM シリーズで必要とされるものよりも古いバージョンの CUDA ランタイム、NVIDIA ドライバー、および (RDMA 対応のサイズのみで該当する場合は) Mellanox OFED ドライバーで作成されている可能性があります。これらは Azure ドキュメントの手順に従って更新できます。

重大な変更

移行用のターゲット サイズを選択する

現在の使用状況を評価したら、必要な GPU VM の種類を決定します。 ワークロードの要件に応じて、さまざまな選択肢があります。

Note

ベスト プラクティスとして、コストとパフォーマンスの両方に基づいて VM サイズを選択することをお勧めします。 このガイドの推奨は、パフォーマンス メトリックを、別の VM シリーズの最も合致するものと 1 対 1 で比較した汎用的な結果に基づいています。 適切なサイズを決定する前に、Azure 料金計算ツールを使用してコストを比較してください。

重要

すべてのレガシ NC、NC v2、ND シリーズのサイズは、マルチ GPU サイズで使用できます。これには、単一の 4 GPU VM または単一の K80、P40、または P100 GPU がそれぞれ提供できるよりも多くのコンピューティング能力を必要とする、スケールアウトされた密結合のワークロードのための InfiniBand 相互接続を持つ (または持たない) 4 GPU サイズなどが含まれます。 上記の推奨では単純な移行パスを示していますが、これらのサイズのユーザーは、NC v3 シリーズND v2 シリーズ などのさらに強力な NVIDIA V100 GPU ベースの VM シリーズを使用してパフォーマンス目標を達成することを検討してください。これらは通常、マルチ GPU およびマルチノード構成が必要になる前に、GPU あたり VM あたりのパフォーマンスを大幅に上昇させることによって、同水準のワークロード パフォーマンスをより低いコストおよび高い管理性で実現できます。

ターゲット VM ファミリのクォータを取得する

ガイドに従って、VM ファミリごとの vCPU クォータの引き上げを依頼してください。移行用に選択したターゲット VM サイズを選択します。

現在の仮想マシンのサイズを変更する

仮想マシンのサイズを変更できます。

次のステップ

GPU 対応の仮想マシンのサイズの完全な一覧については、GPU - 高速コンピューティングの概要に関する記事を参照してください。