HB serisi sanal makine boyutları
Şunlar için geçerlidir: ✔️ Linux VM'leri ✔️ Windows VM'leri ✔️ Esnek ölçek kümeleri ✔️ Tekdüzen ölçek kümeleri
HB serisi boyutlarında çeşitli performans testleri çalıştırılmıştır. Bu performans testinin sonuçlarından bazıları aşağıdadır.
İş Yükü | HB |
---|---|
STREAM Triad | 260 GB/sn (CCX başına 32-33 GB/sn) |
Yüksek Performanslı Linpack (HPL) | 1.000 GigaFLOPS (Rpeak), 860 GigaFLOPS (Rmax) |
RDMA gecikme süresi ve bant genişliği | 1,27 mikrosaniye, 99,1 Gb/sn |
Yerel NVMe SSD üzerinde FIO | 1,7 GB/sn okuma, 1,0 GB/sn yazma |
IOR on 4 * Azure Premium SSD (P30 Yönetilen Diskler, RAID0)** | 725 MB/sn okuma, 780 MB/yazma |
MPI gecikme süresi
OSU microbenchmark paketinden MPI gecikme süresi testi çalıştırılır. Örnek betikler GitHub'da
./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency
MPI bant genişliği
OSU mikrobenchmark paketinden MPI bant genişliği testi çalıştırılır. Örnek betikler GitHub'da
./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw
Mellanox Perftest
Mellanox Perftest paketinde gecikme süresi (ib_send_lat) ve bant genişliği (ib_send_bw) gibi birçok InfiniBand testi vardır. Aşağıda örnek bir komut verilmiştir.
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
Sonraki adımlar
- Azure compute Tech Community Bloglarında en son duyurular, HPC iş yükü örnekleri ve performans sonuçları hakkında bilgi edinin.
- Çalışan HPC iş yüklerinin daha üst düzey mimari görünümü için bkz . Azure'da Yüksek Performanslı Bilgi İşlem (HPC).