أحجام الأجهزة الظاهرية من سلسلة HC

ينطبق على: ✔️ أجهزة ظاهرية بنظام التشغيل Linux ✔️ أجهزة ظاهرية بنظام التشغيل Windows ✔️ مجموعات التوسعة المرنة ✔️ مجموعات التوسعة الموحدة

تم إجراء العديد من اختبارات الأداء على أحجام سلسلة HC. فيما يلي بعض نتائج اختبار الأداء هذا.

حمل العمل HB
ثلاثية STREAM 190 جيجابايت/ثانية (Intel MLC AVX-512)
Linpack (HPL) عالي الأداء 3520 GigaFLOPS (Rpeak), 2970 GigaFLOPS (Rmax)
زمن انتقال RDMA وعرض النطاق الترددي 1.05 ميكرو ثانية، 96.8 جيجابت/ثانية
FIO على NVMe SSD المحلي 1.3 جيجابايت/ثانية يقرأ، 900 ميجابايت/ثانية يكتب
IOR on 4 Azure Premium SSD (P30 Managed Disks, RAID0)** 780 ميجابايت/ثانية للقراءة، 780 ميجابايت/الكتابة

زمن انتقال MPI

يتم تشغيل اختبار زمن انتقال MPI من مجموعة المعايير الدقيقة OSU. نماذج البرامج النصية على GitHub

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency 

Screenshot of MPI latency.

عرض النطاق الترددي MPI

يتم تشغيل اختبار النطاق الترددي MPI من مجموعة المعايير الدقيقة OSU. نماذج البرامج النصية على GitHub

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Screenshot of MPI bandwidth.

Mellanox Perftest

تحتوي حزمة Mellanox Perftest على العديد من اختبارات InfiniBand مثل زمن انتقال (ib_send_lat) والنطاق الترددي (ib_send_bw). يوجد مثال على الأمر أدناه.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

الخطوات التالية