Ukuran VM komputasi performa tinggi

Berlaku untuk: ✔️ Mesin virtual Linux ✔️ Mesin virtual Windows ✔️ Set skala fleksibel ✔️ Set skala seragam

Tip

Coba alat Virtual machines selector untuk menemukan ukuran lain yang paling sesuai dengan beban kerja Anda.

Komputer virtual (VM) seri-H Azure dirancang untuk memberikan kinerja, skalabilitas, dan efisiensi biaya kelas-kepemimpinan untuk berbagai beban kerja HPC di dunia nyata.

VM Seri HBv3 dioptimalkan untuk aplikasi HPC seperti dinamika fluida, analisis elemen terbatas eksplisit dan implisit, pemodelan cuaca, pemrosesan seismik, simulasi reservoir, dan simulasi kanan-ke-kiri. VM HBv3 memiliki hingga 120 AMD EPYC™ core CPU seri 7003 (Milan), RAM 448 GB, dan tanpa hyperthreading. VM seri HBv3 juga menyediakan bandwidth memori 350 GB/dtk, cache L3 hingga 32 MB per core, performa SSD perangkat blok hingga 7 GB/dtk, dan frekuensi jam hingga 3,5 GHz.

Semua VM seri HBv3 memiliki 200 Gb/dtk HDR InfiniBand dari NVIDIA Networking untuk mengaktifkan beban kerja MPI skala superkomputer. VM ini tersambung dalam fat tree non-blok untuk kinerja RDMA yang optimal dan konsisten. Fabric HDR InfiniBand juga mendukung Adaptive Routing dan Dynamic Connected Transport (DCT, selain transportasi RC dan UD standar). Fitur-fitur ini meningkatkan performa, skalabilitas, serta konsistensi aplikasi, dan penggunaannya sangat disarankan.

VM Seri HBv2 dioptimalkan untuk aplikasi yang digerakkan oleh bandwidth memori, seperti dinamika fluida, analisis elemen terbatas, dan simulasi reservoir. VM HBv2 memiliki core prosesor 120 AMD EPYC 7742, RAM 4 GB per core CPU, dan tidak ada multithreading simultan. Setiap VM HBv2 menyediakan bandwidth memori hingga 340 GB/dtk, dan komputasi FP64 hingga 4 teraFLOPS.

VM HBv2 memiliki Mellanox HDR InfiniBand 200 Gb/dtk, sedangkan VM seri HB dan HC memiliki 100 Gb/detik Mellanox EDR InfiniBand. Masing-masing jenis VM ini tersambung dalam fat tree non-blok untuk kinerja RDMA yang optimal dan konsisten. VM HBv2 mendukung Adaptive Routing dan Dynamic Connected Transport (DCT, selain transportasi RC dan UD standar). Fitur-fitur ini meningkatkan performa, skalabilitas, serta konsistensi aplikasi, dan penggunaannya sangat disarankan.

VM Seri HB dioptimalkan untuk aplikasi yang digerakkan oleh bandwidth memori, seperti dinamika fluida, analisis elemen terbatas eksplisit, dan pemodelan cuaca. VM HBv2 memiliki core prosesor 60 AMD EPYC 7551, RAM 4 GB per core CPU, dan tidak ada hyperthreading. Platform AMD EPYC menyediakan lebih dari 260 GB/detik bandwidth memori.

VM Seri HC dioptimalkan untuk aplikasi yang digerakkan oleh komputasi padat, seperti analisis elemen terbatas implisit, dinamika molekuler, dan kimia komputasi. VM HC memiliki 44 core prosesor Intel Xeon Platinum 8168, RAM 8 GB per core CPU, dan tanpa hyperthreading. Platform Intel Xeon Platinum mendukung ekosistem alat perangkat lunak Intel yang kaya seperti Intel Math Kernel Library.

VM Seri H dioptimalkan untuk aplikasi yang digerakkan oleh frekuensi CPU tinggi atau memori besar per core persyaratan. VM seri H memiliki 8 atau 16 core prosesor Intel Xeon E5 2667 v3, RAM 7 atau 14 GB per core CPU, dan tanpa hyperthreading. Seri-H memiliki Mellanox FDR InfiniBand 56 Gb/dtk dalam konfigurasi fat tree non-blok untuk kinerja RDMA yang konsisten. VM seri H mendukung Intel MPI 5.x dan MS-MPI.

Catatan

Semua HBv3, HBv2, HB, dan VM seri-HC memiliki akses eksklusif ke server fisik. Hanya ada 1 VM per server fisik dan tidak ada multi-tenancy bersama dengan VM lain untuk ukuran VM ini.

Catatan

VM A8 – A11 dihentikan per 3/2021. Tidak ada penyebaran VM baru dengan ukuran ini sekarang dimungkinkan. Jika Anda memiliki VM yang sudah ada, lihat pemberitahuan email untuk langkah berikutnya termasuk migrasi ke ukuran VM lainnya di Panduan Migrasi HPC.

Instans berkemampuan RDMA

Sebagian besar ukuran VM HPC memiliki antarmuka jaringan untuk konektivitas akses memori langsung jarak jauh (RDMA). Ukuran seri-N terpilih yang dirancang dengan 'r' juga berkemampuan RDMA. Antarmuka ini selain antarmuka jaringan Azure Ethernet standar yang tersedia dalam ukuran VM lainnya.

Antarmuka sekunder ini memungkinkan instans berkemampuan RDMA untuk berkomunikasi melalui jaringan InfiniBand (IB), beroperasi dengan tarif HDR untuk tingkat HBv3, HBv2, EDR untuk tingkat HB, HC, NDv2, dan FDR untuk H16r, H16mr, dan komputer virtual seri-N berkemampuan RDMA lainnya. Kemampuan RDMA ini dapat meningkatkan skalabilitas dan kinerja aplikasi berbasis Message Passing Interface (MPI).

Catatan

Dukungan SR-IOV: Di Azure HPC, saat ini ada dua kelas VM tergantung pada apakah mereka diaktifkan SR-IOV untuk InfiniBand. Saat ini, hampir semua generasi yang lebih baru, berkemampuan-RDMA atau VM yang mengaktifkan InfiniBand di Azure mengaktifkan SR-IOV kecuali untuk H16r, H16mr, dan NC24r. RDMA hanya diaktifkan melalui jaringan InfiniBand (IB) dan didukung untuk semua VM berkemampuan RDMA. IP over IB hanya didukung pada VM yang mengaktifkan SR-IOV. RDMA tidak diaktifkan melalui jaringan Ethernet.

  • Sistem Operasi - Distribusi Linux seperti CentOS, RHEL, Ubuntu, SUSE umumnya digunakan. Windows Server 2016 dan versi yang lebih baru didukung pada semua VM seri HPC. Windows Server 2012 R2 dan Windows Server 2012 juga didukung pada VM yang mengaktifkan non-SR-IOV. Perhatikan bahwa Windows Server 2012 R2 tidak didukung pada HBv2 dan seterusnya sebagai ukuran VM dengan lebih dari 64 core (virtual atau fisik). Lihat Gambar VM untuk daftar Gambar VM yang didukung di Marketplace dan bagaimana gambar tersebut dapat dikonfigurasi dengan tepat. Halaman ukuran VM masing-masing juga mencantumkan dukungan tumpukan perangkat lunak.

  • InfiniBand dan Drivers - Pada VM yang mengaktifkan InfiniBand, driver yang sesuai diperlukan untuk mengaktifkan RDMA. Lihat Gambar VM untuk daftar Gambar VM yang didukung di Marketplace dan bagaimana gambar tersebut dapat dikonfigurasi dengan tepat. Lihat juga mengaktifkan InfiniBand untuk mempelajari tentang ekstensi VM atau penginstalan manual driver InfiniBand.

  • MPI - Ukuran VM yang mengaktifkan SR-IOV di Azure memungkinkan hampir semua rasa MPI digunakan dengan Mellanox OFED. Pada VM yang diaktifkan non-SR-IOV, implementasi MPI yang didukung menggunakan antarmuka Microsoft Network Direct (ND) untuk berkomunikasi antar VM. Oleh karena itu, hanya Intel MPI 5.x dan Microsoft MPI (MS-MPI) 2012 R2 atau versi yang lebih baru yang didukung. Versi pustaka runtime Intel MPI yang lebih baru mungkin atau mungkin tidak kompatibel dengan driver RDMA Azure. Lihat Menyiapkan MPI untuk HPC untuk detail selengkapnya tentang menyiapkan MPI di HPC VM di Azure.

    Catatan

    Ruang alamat jaringan RDMA: Jaringan RDMA di Azure mencadangkan ruang alamat 172.16.0.0/16. Untuk menjalankan aplikasi MPI pada instans yang disebarkan di jaringan virtual Azure, pastikan ruang alamat jaringan virtual tidak tumpang tindih dengan jaringan RDMA.

Opsi konfigurasi kluster

Azure menyediakan beberapa opsi untuk membuat klaster VM HPC yang dapat berkomunikasi menggunakan jaringan RDMA, termasuk:

  • Mesin virtual - Terapkan VM HPC berkemampuan RDMA dalam set skala yang sama atau set ketersediaan (bila Anda menggunakan model penerapan Azure Resource Manager). Jika Anda menggunakan model penyebaran klasik, sebarkan VM di layanan cloud yang sama.

  • Set skala komputer virtual - Dalam set skala komputer virtual, pastikan Anda membatasi penyebaran ke grup penempatan tunggal untuk komunikasi InfiniBand dalam set skala. Contohnya, dalam templat Resource Manager, atur singlePlacementGroup properti ke true. Perhatikan bahwa ukuran set skala maksimum yang dapat dipisahkan dengan singlePlacementGroup=true dibatasi pada 100 VM secara default. Jika kebutuhan skala pekerjaan HPC Anda lebih tinggi dari 100 VM dalam satu penyewa, Anda dapat meminta peningkatan, membuka permintaan dukungan pelanggan online tanpa biaya. Batas jumlah VM dalam satu set skala dapat ditingkatkan menjadi 300. Perhatikan bahwa saat menyebarkan VM menggunakan Set Ketersediaan, batas maksimum adalah pada 200 VM per Set Ketersediaan.

    Catatan

    MPI di antara komputer virtual: Jika RDMA (misalnya menggunakan komunikasi MPI) diperlukan antara komputer virtual (VM), pastikan bahwa VM berada dalam set skala komputer virtual yang sama atau set ketersediaan.

  • Azure CycleCloud - Buat kluster HPC menggunakan Azure CycleCloud untuk menjalankan pekerjaan MPI.

  • Azure Batch - Buat kumpulan Azure Batch untuk menjalankan beban kerja MPI. Untuk menggunakan instans intensif komputasi saat menjalankan aplikasi MPI dengan Azure Batch, lihat Menggunakan tugas multi-instans untuk menjalankan aplikasi Message Passing Interface (MPI) di Azure Batch.

  • Microsoft HPC Pack - HPC Pack mencakup lingkungan runtime untuk MS-MPI yang menggunakan jaringan Azure RDMA saat disebarkan pada VM Linux berkemampuan RDMA. Contohnya penyebaran, lihat Siapkan kluster Linux RDMA dengan HPC Pack untuk menjalankan aplikasi MPI.

Pertimbangan penyebaran

  • Langganan Azure - Untuk menyebarkan lebih dari beberapa instans intensif komputasi, pertimbangkan langganan bayar sesuai penggunaan atau opsi pembelian lainnya. Jika Anda menggunakan akun gratis Azure, Anda hanya dapat menggunakan sejumlah core komputasi Azure yang terbatas.

  • Harga dan ketersediaan - Periksa harga danketersediaan VM berdasarkan wilayah Azure.

  • Kuota core - Anda mungkin perlu meningkatkan kuota core di langganan Azure Anda dari nilai default. Langganan Anda mungkin juga membatasi jumlah core yang dapat Anda sebarkan di keluarga ukuran VM tertentu, termasuk seri H. Untuk meminta kenaikan kuota, buka permintaan dukungan pelanggan online tanpa biaya. (Batas default dapat bervariasi tergantung pada kategori langganan Anda.)

    Catatan

    Hubungi Azure Support jika Anda memiliki kebutuhan kapasitas skala besar. Kuota Azure adalah batas kredit, bukan jaminan kapasitas. Terlepas dari kuota Anda, Anda hanya dikenakan biaya untuk core yang digunakan.

  • Jaringan virtualjaringan virtual Azure tidak diperlukan untuk menggunakan instans intensif komputasi. Namun, untuk banyak penyebaran, Anda memerlukan setidaknya jaringan virtual Azure berbasis cloud, atau koneksi situs ke situs jika Anda perlu mengakses sumber daya lokal. Saat diperlukan, buat jaringan virtual baru untuk menyebarkan instans. Menambahkan VM intensif komputasi ke jaringan virtual dalam grup afinitas tidak didukung.

  • Mengubah ukuran – Karena perangkat keras khusus mereka, Anda hanya dapat mengubah ukuran instans intensif komputasi dalam keluarga ukuran yang sama (seri H atau seri-N). Contohnya, Anda hanya dapat mengubah ukuran VM seri-H dari satu ukuran seri-H ke ukuran lainnya. Pertimbangan tambahan seputar dukungan driver InfiniBand dan disk NVMe mungkin perlu dipertimbangkan untuk VM tertentu.

Ukuran lainnya

Langkah berikutnya