'ND' alt ailesi GPU hızlandırılmış sanal makine boyutu serisi
Şunlar için geçerlidir: ✔️ Linux VM'leri ✔️ Windows VM'leri ✔️ Esnek ölçek kümeleri ✔️ Tekdüzen ölçek kümeleri
VM boyutu serisinin 'ND' ailesi, Azure'ın GPU hızlandırmalı VM örneklerinden biridir. Bunlar derin öğrenme, yapay zeka araştırması ve güçlü GPU hızlandırmasından yararlanan yüksek performanslı bilgi işlem görevleri için tasarlanmıştır. NVIDIA GPU'ları ile donatılmış ND serisi VM'ler, karmaşık makine öğrenmesi modellerinin eğitimi ve çıkarımı için özel özellikler sunar, daha hızlı hesaplamalar ve büyük veri kümelerinin verimli bir şekilde işlenmesini kolaylaştırır. Bu sayede yapay zeka geliştirme ve simülasyonundaki akademik ve ticari uygulamalar için özellikle çok uygundur. Burada son teknoloji GPU teknolojisi, sinir ağı işleme ve diğer hesaplama açısından yoğun işlem gücü gerektiren görevlerde hızlı ve doğru sonuçlar elde etmek için çok önemlidir.
İş yükleri ve kullanım örnekleri
Yapay Zeka ve Derin Öğrenme: ND ailesi VM'leri karmaşık derin öğrenme modellerini eğitme ve dağıtma için idealdir. Güçlü NVIDIA GPU'ları ile donatılmış bu gpu'lar, büyük veri kümeleriyle kapsamlı sinir ağı eğitimini işlemek için gereken hesaplama gücünü sağlayarak eğitim sürelerini önemli ölçüde azaltır.
Yüksek Performanslı Bilgi İşlem (HPC): ND ailesi VM'ler, GPU hızlandırma gerektiren HPC uygulamaları için uygundur. Bilimsel araştırma, mühendislik simülasyonları (hesaplama sıvısı dinamiği gibi) ve genomik işleme gibi alanlar, ND serisi VM'lerin yüksek aktarım hızına sahip bilgi işlem özelliklerinden yararlanabilir.
Grafik İşleme: ND ailesinin GPU'ları, animasyon ve video üretimi için gerçek zamanlı işleme ve sanal gerçeklik ortamları için yüksek uygunluk simülasyonları da dahil olmak üzere yoğun grafik kullanımlı görevler için harika bir seçimdir.
Uzaktan Görselleştirme: ND ailesi VM'leri, bulut üzerinde karmaşık görselleştirmeleri işlemek ve işlemek için üst düzey GPU özelliklerinin gerekli olduğu ve daha az güçlü istemci makinelerinden erişimi kolaylaştıran veri yoğunluklu görevlerin uzaktan görselleştirmesi için kullanılabilir.
Ailedeki seriler
ND serisi V1
ND serisi sanal makineler, yapay zeka ve Derin Öğrenme iş yükleri için tasarlanmış GPU ailesine yeni bir ektir. Eğitim ve çıkarım için mükemmel performans sunar. ND örnekleri NVIDIA Tesla P40 GPU'ları ve Intel Xeon E5-2690 v4 (Broadwell) CPU'ları tarafından desteklenir. Bu örnekler, Microsoft Bilişsel Araç Seti, TensorFlow, Caffe ve diğer çerçeveleri kullanan yapay zeka iş yükleri için tek duyarlıklı kayan nokta işlemleri için mükemmel performans sağlar. Ayrıca, ND serisi çok daha büyük bir GPU bellek boyutu (24 GB) sunarak daha büyük sinir ağı modellerinin sığdırılmasına imkan tanır. NC serisinde olduğu gibi ND serisi de rdma aracılığıyla ikincil düşük gecikme süreli, yüksek aktarım hızına sahip ağ ve InfiniBand bağlantısı ile bir yapılandırma sunar, böylece birçok GPU'yu kapsayan büyük ölçekli eğitim işlerini çalıştırabilirsiniz.
Nd serisi sayfasının tamamını görüntüleyin.
Bölüm | Miktar Birim Sayısı |
Özellikleri SKU Kimliği, Performans Birimleri vb. |
---|---|---|
İşleyen | 6 - 24sanal çekirdek | Intel® Xeon® E5-2690 v4 (Broadwell) |
Bellek | 112 - 448GiB | |
Veri Diskleri | 12 - 32Disk | 20000 - 80000IOPS / 200 - 800MBps |
Ağ | 4 - 8NIC | |
Hızlandırıcılar | 1 - 4GPU | NVIDIA Tesla P40 24GiB 24 - VM başına 96GiB |
NDv2 serisi
NDv2 serisi sanal makine, GPU ailesine en zorlu GPU hızlandırmalı yapay zeka, makine öğrenmesi, simülasyon ve HPC iş yüklerinin ihtiyaçları için tasarlanmış yeni bir ektir. NDv2, her biri 32 GB GPU belleğine sahip 8 NVIDIA Tesla V100 NVLINK bağlantılı GPU ile desteklenir. Her NDv2 VM'sinde ayrıca 40 HyperThreaded olmayan Intel Xeon Platinum 8168 (Skylake) çekirdeği ve 672 GiB sistem belleği vardır. NDv2 örnekleri CUDA GPU için iyileştirilmiş hesaplama çekirdeklerini kullanan HPC ve AI iş yükleri ile TensorFlow, Pytorch, Caffe, RAPIDS ve diğer çerçeveler gibi GPU hızlandırmayı destekleyen 'hazır' GPU hızlandırmayı destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar. Kritik öneme sahip olan NDv2, hem işlem açısından yoğun ölçek büyütme (VM başına 8 GPU'yu kullanır) hem de ölçeği genişletme (birlikte çalışan birden çok VM'yi kullanma) iş yükleri için tasarlanmıştır. NDv2 serisi artık AI ve ML için dağıtılmış eğitim de dahil olmak üzere paralel senaryolar için yüksek performanslı kümeleme olanağı sağlamak için HPC VM'nin HB serisinde bulunana benzer şekilde 100 Gigabit InfiniBand EDR arka uç ağını destekliyor. Bu arka uç ağı, NVIDIA'nın NCCL2 kitaplıkları tarafından kullanılanlar da dahil olmak üzere tüm önemli InfiniBand protokollerini destekler ve GPU'ların sorunsuz bir şekilde kümelenmesine olanak tanır.
NDv2 serisi sayfasının tamamını görüntüleme
Bölüm | Miktar Birim Sayısı |
Özellikleri SKU Kimliği, Performans Birimleri vb. |
---|---|---|
İşleyen | 40sanal çekirdek | Intel® Xeon® Platinum 8168 (Skylake) |
Bellek | 672GiB | |
Veri Diskleri | 32Disk | 80000IOPS / 800MBps |
Ağ | 8NIC | 24000Mb/sn |
Hızlandırıcılar | 8GPU | NVIDIA V100 (NVLink) 32GiB VM başına 256GiB |
ND_A100_v4 serisi
ND A100 v4 serisi sanal makine (VM), Azure GPU ailesine eklenen yeni bir amiral gemisidir. Üst düzey Derin Öğrenme eğitimi ve sıkı bir şekilde bağlı ölçeği artırma ve ölçeği genişletme HPC iş yükleri için tasarlanmıştır. ND A100 v4 serisi tek bir VM ve sekiz NVIDIA Ampere A100 40 GB Tensor Core GPU ile başlar. ND A100 v4 tabanlı dağıtımlar, VM başına 1,6 TB/sn bağlantı bant genişliğiyle binlerce GPU'ya kadar ölçeklendirilebilir. VM içindeki her GPU kendi ayrılmış, topolojiden bağımsız 200 GB/sn NVIDIA Mellanox HDR InfiniBand bağlantısı ile sağlanır. Bu bağlantılar, aynı sanal makine ölçek kümesini kaplayan VM'ler arasında otomatik olarak yapılandırılır ve GPUDirect RDMA'yı destekler. Her GPU, VM içindeki iletişim için NVLINK 3.0 bağlantısına sahiptir ve örnek 96 fiziksel 2. nesil AMD Epyc™ 7V12 (Roma) CPU çekirdeği tarafından desteklenir. Bu örnekler TensorFlow, Pytorch, Caffe, RAPIDS ve diğer çerçeveler gibi GPU hızlandırmayı destekleyen 'kullanıma hazır' GPU hızlandırmasını destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar. Buna ek olarak, ölçek genişletme InfiniBand bağlantısı, GPU'ların sorunsuz kümelenmesi için NVIDIA'nın NCCL2 iletişim kitaplıkları üzerinde oluşturulan mevcut yapay zeka ve HPC araçlarının büyük bir kümesi tarafından desteklenir.
ND_A100_v4 serisi sayfasının tamamını görüntüleyin.
Bölüm | Miktar Birim Sayısı |
Özellikleri SKU Kimliği, Performans Birimleri vb. |
---|---|---|
İşleyen | 96sanal çekirdek | AMD Epyc™ 7V12 (Roma) |
Bellek | 900GiB | |
Veri Diskleri | 32Disk | 80000IOPS / 800MBps |
Ağ | 8 NIC | 24000Mb/sn |
Hızlandırıcılar | 8GPU | NVIDIA A100 (NVLink) 40GiB VM başına 320GiB |
NDm_A100_v4 serisi
NDm A100 v4 serisi sanal makine (VM), Azure GPU ailesine eklenen yeni bir amiral gemisidir. Üst düzey Derin Öğrenme eğitimi ve sıkı bir şekilde bağlı ölçeği artırma ve ölçeği genişletme HPC iş yükleri için tasarlanmıştır. NDm A100 v4 serisi tek bir VM ve sekiz NVIDIA Ampere A100 80 GB Tensor Core GPU ile başlar. NDm A100 v4 tabanlı dağıtımlar, VM başına 1,6 TB/sn bağlantı bant genişliğiyle binlerce GPU'ya kadar ölçeklendirilebilir. VM içindeki her GPU kendi ayrılmış, topolojiden bağımsız 200 GB/sn NVIDIA Mellanox HDR InfiniBand bağlantısı ile sağlanır. Bu bağlantılar, aynı sanal makine ölçek kümesini kaplayan VM'ler arasında otomatik olarak yapılandırılır ve GPUDirect RDMA'yı destekler. Her GPU, VM içindeki iletişim için NVLINK 3.0 bağlantısına sahiptir ve örnek 96 fiziksel 2. nesil AMD Epyc™ 7V12 (Roma) CPU çekirdeği tarafından desteklenir. Bu örnekler TensorFlow, Pytorch, Caffe, RAPIDS ve diğer çerçeveler gibi GPU hızlandırmayı destekleyen 'kullanıma hazır' GPU hızlandırmasını destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar. Buna ek olarak, ölçek genişletme InfiniBand bağlantısı, GPU'ların sorunsuz kümelenmesi için NVIDIA'nın NCCL2 iletişim kitaplıkları üzerinde oluşturulan mevcut yapay zeka ve HPC araçlarının büyük bir kümesi tarafından desteklenir.
NDm_A100_v4 serisi sayfasının tamamını görüntüleyin.
Bölüm | Miktar Birim Sayısı |
Özellikleri SKU Kimliği, Performans Birimleri vb. |
---|---|---|
İşleyen | 96sanal çekirdek | AMD Epyc™ 7V12 (Roma) |
Bellek | 900GiB | |
Veri Diskleri | 32Disk | 80000IOPS / 800MBps |
Ağ | 8NIC | 24000Mb/sn |
Hızlandırıcılar | 8GPU | NVIDIA A100 (NVLink) 80GiB VM başına 640GiB |
ND_H100_v5 serisi
ND H100 v5 serisi sanal makine (VM), Azure GPU ailesine eklenen yeni bir amiral gemisidir. Üst düzey Derin Öğrenme eğitimi ve sıkı bir şekilde ölçek büyütme ve ölçeği genişletme Üretken Yapay Zeka ve HPC iş yükleri için tasarlanmıştır. ND H100 v5 serisi tek bir VM ve sekiz NVIDIA H100 Tensor Core GPU ile başlar. ND H100 v5 tabanlı dağıtımlar, VM başına 3,2 Tb/sn bağlantı bant genişliği ile binlerce GPU'ya kadar ölçeklendirilebilir. VM içindeki her GPU kendi ayrılmış, topolojiden bağımsız 400 Gb/sn NVIDIA Quantum-2 CX7 InfiniBand bağlantısı ile sağlanır. Bu bağlantılar, aynı sanal makine ölçek kümesini kaplayan VM'ler arasında otomatik olarak yapılandırılır ve GPUDirect RDMA'yı destekler. Her GPU, VM içindeki iletişim için NVLINK 4.0 bağlantısına sahiptir ve örnek 96 fiziksel 4. Nesil Intel Xeon Ölçeklenebilir işlemci çekirdekleri tarafından desteklenir. Bu örnekler TensorFlow, Pytorch, Caffe, RAPIDS ve diğer çerçeveler gibi GPU hızlandırmayı destekleyen 'kullanıma hazır' GPU hızlandırmasını destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar. Buna ek olarak, ölçek genişletme InfiniBand bağlantısı, GPU'ların sorunsuz kümelenmesi için NVIDIA'nın NCCL iletişim kitaplıkları üzerinde oluşturulmuş büyük bir yapay zeka ve HPC araçları kümesi tarafından desteklenir.
ND_H100_v5 serisi sayfasının tamamını görüntüleyin.
Bölüm | Miktar Birim Sayısı |
Özellikleri SKU Kimliği, Performans Birimleri vb. |
---|---|---|
İşleyen | 96sanal çekirdek | Intel® Xeon® Scalable (Sapphire Rapids) |
Bellek | 1900GiB | |
Veri Diskleri | 32Disk | 40800IOPS / 612MBps |
Ağ | 8NIC | 80000Mb/sn |
Hızlandırıcılar | 8GPU | NVIDIA H100 (NVLink) 80GiB VM başına 640GiB |
ND_MI300X_v5 serisi
ND MI300X v5 serisi sanal makine (VM), Azure GPU ailesine yeni bir amiral gemisi eklenmiştir. Üst düzey Derin Öğrenme eğitimi ve sıkı bir şekilde ölçek büyütme ve ölçeği genişletme Üretken Yapay Zeka ve HPC iş yükleri için tasarlanmıştır.
ND MI300X v5 serisi VM, toplam 96 fiziksel çekirdek için sekiz AMD Instinct MI300 GPU ve iki dördüncü Nesil Intel Xeon Ölçeklenebilir işlemci ile başlar. Ardından VM içindeki her GPU, GPU başına 128 GB/sn bant genişliğine ve 896 GB/sn toplam bant genişliğine sahip 4. Nesil AMD Infinity Fabric bağlantıları aracılığıyla birbirine bağlanır.
ND MI300X v5 tabanlı dağıtımlar, VM başına 3,2 Tb/sn bağlantı bant genişliği ile binlerce GPU'ya kadar ölçeklendirilebilir. VM içindeki her GPU kendi ayrılmış, topolojiden bağımsız 400 Gb/sn NVIDIA Quantum-2 CX7 InfiniBand bağlantısı ile sağlanır. Bu bağlantılar, aynı sanal makine ölçek kümesini kaplayan VM'ler arasında otomatik olarak yapılandırılır ve GPUDirect RDMA'yı destekler.
Bu örnekler, TensorFlow, Pytorch ve diğer çerçeveler gibi "kullanıma hazır" GPU hızlandırmasını destekleyen birçok yapay zeka, ML ve analiz aracı için mükemmel performans sağlar. Buna ek olarak, ölçek genişletme InfiniBand bağlantısı, GPU'ların sorunsuz kümelenmesi için AMD'nin ROCm İletişim Kolektifleri Kitaplığı (RCCL) üzerinde oluşturulmuş çok sayıda mevcut yapay zeka ve HPC aracını destekler.
ND_MI300X_v5 serisi sayfasının tamamını görüntüleyin.
Bölüm | Miktar Birim Sayısı |
Özellikleri SKU Kimliği, Performans Birimleri vb. |
---|---|---|
İşleyen | 96 sanal çekirdek | Intel® Xeon® Scalable (Sapphire Rapids) |
Bellek | 1850 GiB | |
Yerel Depolama | 1 Disk | 1000 GiB |
Uzak Diskler | 32 Disk | 40800 IOPS 612 MBps |
Ağ | 8 NIC | 80000 Mb/sn |
Hızlandırıcılar | 8 GPU | AMD MI300X 192 GiB VM başına 1535 GiB |
Önceki nesil ND ailesi serisi
Daha eski boyutlar için bkz . önceki nesil boyutlar.
Diğer boyut bilgileri
Kullanılabilir tüm boyutların listesi: Boyutlar
Fiyatlandırma Hesaplayıcısı: Fiyatlandırma Hesaplayıcısı
Disk Türleri hakkında bilgi: Disk Türleri
Sonraki adımlar
Azure işlem birimlerinin (ACU) Azure SKU'ları genelinde işlem performansını karşılaştırmanıza nasıl yardımcı olabileceği hakkında daha fazla bilgi edinin.
Geri Bildirim
https://aka.ms/ContentUserFeedback.
Çok yakında: 2024 boyunca, içerik için geri bildirim mekanizması olarak GitHub Sorunları’nı kullanımdan kaldıracak ve yeni bir geri bildirim sistemiyle değiştireceğiz. Daha fazla bilgi için bkz.Gönderin ve geri bildirimi görüntüleyin