Ukuran VM komputasi performa tinggi

Perhatian

Artikel ini mereferensikan CentOS, distribusi Linux yang mendekati status End Of Life (EOL). Harap pertimbangkan penggunaan dan perencanaan Anda yang sesuai. Untuk informasi selengkapnya, lihat panduan Akhir Masa Pakai CentOS.

Berlaku untuk: ✔️ Mesin virtual Linux ✔️ Mesin virtual Windows ✔️ Set skala fleksibel ✔️ Set skala seragam

Tip

Coba Alat pemilih komputer virtual untuk menemukan ukuran lain yang paling sesuai dengan beban kerja Anda.

VM seri HBv4 dioptimalkan untuk berbagai beban kerja HPC seperti dinamika fluida komputasi, analisis elemen terbatas, EDA frontend dan backend, rendering, dinamika molekuler, geoscience komputasi, simulasi cuaca, dan analisis risiko keuangan. VM HBv4 akan menampilkan hingga 176 core CPU seri AMD EPYC™ 9004 (Genoa), RAM 688 GB, dan tidak ada multithreading simultan. VM seri HBv4 juga menyediakan bandwidth memori DDR5 800 GB/dtk dan cache L3 768MB per VM, hingga 12 GB/dtk (baca) dan 7 GB/dtk (tulis) performa SSD perangkat blok, dan frekuensi jam hingga 3,7 GHz.

Semua VM seri HBv4 memiliki NDR InfiniBand 400 Gb/dtk dari NVIDIA Networking untuk mengaktifkan beban kerja MPI skala superkomputer. VM ini tersambung dalam fat tree non-blok untuk kinerja RDMA yang optimal dan konsisten. NDR terus mendukung fitur seperti Perutean Adaptif dan Dynamically Koneksi ed Transport (DCT). Generasi terbaru InfiniBand ini juga menghadirkan dukungan yang lebih besar untuk offload kolektif MPI, latensi dunia nyata yang dioptimalkan karena kecerdasan kontrol kemacetan, dan kemampuan perutean adaptif yang ditingkatkan. Fitur-fitur ini meningkatkan performa aplikasi, skalabilitas, dan konsistensi, serta penggunaannya disarankan.

VM Seri HBv3 dioptimalkan untuk aplikasi HPC seperti dinamika fluida, analisis elemen terbatas eksplisit dan implisit, pemodelan cuaca, pemrosesan seismik, simulasi reservoir, dan simulasi kanan-ke-kiri. VM HBv3 memiliki hingga 120 AMD EPYC™ core CPU seri 7003 (Milan), RAM 448 GB, dan tanpa hyperthreading. VM seri HBv3 juga menyediakan bandwidth memori 350 GB/dtk, cache L3 hingga 32 MB per core, performa SSD perangkat blok hingga 7 GB/dtk, dan frekuensi jam hingga 3,5 GHz.

Semua VM seri HBv3 memiliki 200 Gb/dtk HDR InfiniBand dari NVIDIA Networking untuk mengaktifkan beban kerja MPI skala superkomputer. VM ini tersambung dalam fat tree non-blok untuk kinerja RDMA yang optimal dan konsisten. Fabric HDR InfiniBand juga mendukung Adaptive Routing dan Dynamic Connected Transport (DCT, selain transportasi RC dan UD standar). Fitur-fitur ini meningkatkan performa, skalabilitas, serta konsistensi aplikasi, dan penggunaannya sangat disarankan.

VM Seri HBv2 dioptimalkan untuk aplikasi yang digerakkan oleh bandwidth memori, seperti dinamika fluida, analisis elemen terbatas, dan simulasi reservoir. VM HBv2 memiliki core prosesor 120 AMD EPYC 7742, RAM 4 GB per core CPU, dan tidak ada multithreading simultan. Setiap VM HBv2 menyediakan bandwidth memori hingga 340 GB/dtk, dan komputasi FP64 hingga 4 teraFLOPS.

VM HBv2 memiliki Mellanox HDR InfiniBand 200 Gb/dtk, sedangkan VM seri HB dan HC memiliki 100 Gb/detik Mellanox EDR InfiniBand. Masing-masing jenis VM ini tersambung dalam fat tree non-blok untuk kinerja RDMA yang optimal dan konsisten. VM HBv2 mendukung Adaptive Routing dan Dynamic Connected Transport (DCT, selain transportasi RC dan UD standar). Fitur-fitur ini meningkatkan performa, skalabilitas, serta konsistensi aplikasi, dan penggunaannya sangat disarankan.

VM Seri HB dioptimalkan untuk aplikasi yang digerakkan oleh bandwidth memori, seperti dinamika fluida, analisis elemen terbatas eksplisit, dan pemodelan cuaca. VM HBv2 memiliki core prosesor 60 AMD EPYC 7551, RAM 4 GB per core CPU, dan tidak ada hyperthreading. Platform AMD EPYC menyediakan lebih dari 260 GB/detik bandwidth memori.

VM Seri HC dioptimalkan untuk aplikasi yang digerakkan oleh komputasi padat, seperti analisis elemen terbatas implisit, dinamika molekuler, dan kimia komputasi. VM HC memiliki 44 core prosesor Intel Xeon Platinum 8168, RAM 8 GB per core CPU, dan tanpa hyperthreading. Platform Intel Xeon Platinum mendukung ekosistem alat perangkat lunak Intel yang kaya seperti Intel Math Kernel Library.

VM seri HX dioptimalkan untuk beban kerja yang membutuhkan kapasitas memori yang signifikan dengan kapasitas memori dua kali lipat sebagai HBv4. Misalnya, beban kerja seperti desain silikon dapat menggunakan VM seri HX untuk memungkinkan pelanggan EDA menargetkan proses manufaktur paling canggih untuk menjalankan beban kerja mereka yang paling intensif memori. VM HX memiliki hingga 176 core CPU seri AMD EPYC 9004 (Genoa), RAM 1408 GB, dan tidak ada multithreading simultan. VM seri HX juga menyediakan bandwidth memori DDR5 800 GB/dtk dan cache 768 MB L3 per VM, hingga 12 GB/dtk (baca) dan 7 GB/dtk (tulis) performa SSD perangkat blok, dan frekuensi jam hingga 3,7 GHz.

Catatan

Semua VM seri HBv4, HBv3, HBv2, HB, HC, dan HX memiliki akses eksklusif ke server fisik. Hanya ada 1 VM per server fisik dan tidak ada multi-tenancy bersama dengan VM lain untuk ukuran VM ini.

Instans berkemampuan RDMA

Sebagian besar ukuran VM HPC memiliki antarmuka jaringan untuk konektivitas akses memori langsung jarak jauh (RDMA). Ukuran seri-N terpilih yang dirancang dengan 'r' juga berkemampuan RDMA. Antarmuka ini selain antarmuka jaringan Azure Ethernet standar yang tersedia dalam ukuran VM lainnya.

Antarmuka sekunder ini memungkinkan instans berkemampuan RDMA untuk berkomunikasi melalui jaringan InfiniBand (IB), beroperasi dengan tarif HDR untuk tingkat HBv3, HBv2, EDR untuk tingkat HB, HC, NDv2, dan FDR untuk H16r, H16mr, dan komputer virtual seri-N berkemampuan RDMA lainnya. Kemampuan RDMA ini dapat meningkatkan skalabilitas dan kinerja aplikasi berbasis Message Passing Interface (MPI).

Catatan

Dukungan SR-IOV: Di Azure HPC, saat ini ada dua kelas VM tergantung pada apakah mereka diaktifkan SR-IOV untuk InfiniBand. Saat ini, hampir semua generasi yang lebih baru, berkemampuan-RDMA atau VM yang mengaktifkan InfiniBand di Azure mengaktifkan SR-IOV kecuali untuk H16r, H16mr, dan NC24r. RDMA hanya diaktifkan melalui jaringan InfiniBand (IB) dan didukung untuk semua VM berkemampuan RDMA. IP over IB hanya didukung pada VM yang mengaktifkan SR-IOV. RDMA tidak diaktifkan melalui jaringan Ethernet.

  • Sistem Operasi - Distribusi Linux seperti CentOS, RHEL, Ubuntu, SUSE umumnya digunakan. Windows Server 2016 dan versi yang lebih baru didukung pada semua VM seri HPC. Perhatikan bahwa Windows Server 2012 R2 tidak didukung pada HBv2 dan seterusnya sebagai ukuran VM dengan lebih dari 64 core (virtual atau fisik). Lihat Gambar VM untuk daftar Gambar VM yang didukung di Marketplace dan bagaimana gambar tersebut dapat dikonfigurasi dengan tepat. Halaman ukuran VM masing-masing juga mencantumkan dukungan tumpukan perangkat lunak.

  • InfiniBand dan Drivers - Pada VM yang mengaktifkan InfiniBand, driver yang sesuai diperlukan untuk mengaktifkan RDMA. Lihat Gambar VM untuk daftar Gambar VM yang didukung di Marketplace dan bagaimana gambar tersebut dapat dikonfigurasi dengan tepat. Lihat juga mengaktifkan InfiniBand untuk mempelajari tentang ekstensi VM atau penginstalan manual driver InfiniBand.

  • MPI - Ukuran VM yang mengaktifkan SR-IOV di Azure memungkinkan hampir semua rasa MPI digunakan dengan Mellanox OFED. Lihat Menyiapkan MPI untuk HPC untuk detail selengkapnya tentang menyiapkan MPI di HPC VM di Azure.

    Catatan

    Ruang alamat jaringan RDMA: Jaringan RDMA di Azure mencadangkan ruang alamat 172.16.0.0/16. Untuk menjalankan aplikasi MPI pada instans yang disebarkan di jaringan virtual Azure, pastikan ruang alamat jaringan virtual tidak tumpang tindih dengan jaringan RDMA.

Opsi konfigurasi kluster

Azure menyediakan beberapa opsi untuk membuat klaster VM HPC yang dapat berkomunikasi menggunakan jaringan RDMA, termasuk:

  • Mesin virtual - Terapkan VM HPC berkemampuan RDMA dalam set skala yang sama atau set ketersediaan (bila Anda menggunakan model penerapan Azure Resource Manager). Jika Anda menggunakan model penyebaran klasik, sebarkan VM di layanan cloud yang sama.

  • Set skala komputer virtual - Dalam set skala komputer virtual, pastikan Anda membatasi penyebaran ke grup penempatan tunggal untuk komunikasi InfiniBand dalam set skala. Contohnya, dalam templat Resource Manager, atur singlePlacementGroup properti ke true. Perhatikan bahwa ukuran set skala maksimum yang dapat dipisahkan dengan singlePlacementGroup=true dibatasi pada 100 VM secara default. Jika kebutuhan skala pekerjaan HPC Anda lebih tinggi dari 100 VM dalam satu penyewa, Anda dapat meminta peningkatan, membuka permintaan dukungan pelanggan online tanpa biaya. Batas jumlah VM dalam satu set skala dapat ditingkatkan menjadi 300. Perhatikan bahwa saat menyebarkan VM menggunakan Set Ketersediaan, batas maksimum adalah pada 200 VM per Set Ketersediaan.

    Catatan

    MPI di antara komputer virtual: Jika RDMA (misalnya menggunakan komunikasi MPI) diperlukan antara komputer virtual (VM), pastikan bahwa VM berada dalam set skala komputer virtual yang sama atau set ketersediaan.

  • Azure CycleCloud - Buat kluster HPC menggunakan Azure CycleCloud untuk menjalankan pekerjaan MPI.

  • Azure Batch - Buat kumpulan Azure Batch untuk menjalankan beban kerja MPI. Untuk menggunakan instans intensif komputasi saat menjalankan aplikasi MPI dengan Azure Batch, lihat Menggunakan tugas multi-instans untuk menjalankan aplikasi Message Passing Interface (MPI) di Azure Batch.

  • Microsoft HPC Pack - HPC Pack mencakup lingkungan runtime untuk MS-MPI yang menggunakan jaringan Azure RDMA saat disebarkan pada VM Linux berkemampuan RDMA. Contohnya penyebaran, lihat Siapkan kluster Linux RDMA dengan HPC Pack untuk menjalankan aplikasi MPI.

Pertimbangan penyebaran

  • Langganan Azure - Untuk menyebarkan lebih dari beberapa instans intensif komputasi, pertimbangkan langganan bayar sesuai penggunaan atau opsi pembelian lainnya. Jika Anda menggunakan akun gratis Azure, Anda hanya dapat menggunakan sejumlah inti komputasi Azure yang terbatas.

  • Harga dan ketersediaan - Periksa harga danketersediaan VM berdasarkan wilayah Azure.

  • Kuota core - Anda mungkin perlu meningkatkan kuota core di langganan Azure Anda dari nilai default. Langganan Anda mungkin juga membatasi jumlah core yang dapat Anda sebarkan di keluarga ukuran VM tertentu, termasuk seri H. Untuk meminta penambahan kuota, buka permintaan dukungan pelanggan online tanpa biaya. (Batas default dapat bervariasi tergantung pada kategori langganan Anda.)

    Catatan

    Hubungi Azure Support jika Anda memiliki kebutuhan kapasitas skala besar. Kuota Azure adalah batas kredit, bukan jaminan kapasitas. Terlepas dari kuota Anda, Anda hanya dikenakan biaya untuk core yang digunakan.

  • Jaringan virtualjaringan virtual Azure tidak diperlukan untuk menggunakan instans intensif komputasi. Namun, untuk banyak penyebaran, Anda memerlukan setidaknya jaringan virtual Azure berbasis cloud, atau koneksi situs ke situs jika Anda perlu mengakses sumber daya lokal. Saat diperlukan, buat jaringan virtual baru untuk menyebarkan instans. Menambahkan VM intensif komputasi ke jaringan virtual dalam grup afinitas tidak didukung.

  • Mengubah ukuran – Karena perangkat keras khusus mereka, Anda hanya dapat mengubah ukuran instans intensif komputasi dalam keluarga ukuran yang sama (seri H atau seri-N). Contohnya, Anda hanya dapat mengubah ukuran VM seri-H dari satu ukuran seri-H ke ukuran lainnya. Pertimbangan tambahan seputar dukungan driver InfiniBand dan disk NVMe mungkin perlu dipertimbangkan untuk VM tertentu.

Ukuran lainnya

Langkah berikutnya