Freigeben über


Hochleistungsfähiges Computing auf InfiniBand-fähigen VMs der HB- und N-Serie

Gilt für: ✔️ Linux-VMs ✔️ Windows-VMs ✔️ Flexible Skalierungsgruppen ✔️ Einheitliche Skalierungsgruppen

InfiniBand-fähige virtuelle Computer der H- und N-Serie von Azure bieten eine herausragende Leistung, MPI-Skalierbarkeit (Message Passing Interface) und Kosteneffizienz für verschiedenste HPC- und KI-Workloads in der Praxis. Diese für High Performance Computing (HPC) optimierten virtuellen Computer werden verwendet, um besonders rechenintensive Probleme in Wissenschaft und Technik zu lösen. Hierzu zählen beispielsweise Strömungssimulationen, Erdmodellierung und Wettersimulationen.

In diesen Artikeln werden die ersten Schritte mit den InfiniBand-fähigen virtuellen Computern der H- und N-Serie in Azure sowie die optimale Konfiguration der HPC- und KI-Workloads auf den virtuellen Computern beschrieben, um Skalierbarkeit zu gewährleisten.

Features und Funktionen

Die InfiniBand-fähigen VMs der HB- und N-Serie sind so konzipiert, dass sie die beste HPC-Leistung, MPI-Skalierbarkeit und Kosteneffizienz für HPC-Workloads bieten. Weitere Informationen zu den Features und Funktionen der VMs finden Sie unter HB-Serie und N-Serie.

RDMA und InfiniBand

RDMA-fähige VMs der HB-Serie und der N-Serie kommunizieren über das InfiniBand-Netzwerk, das sich durch seine geringe Latenz und seine hohe Bandbreite auszeichnet. Die RDMA-Funktion über eine solche Verbindung ist entscheidend, um die Skalierbarkeit und Leistung von HPC- und KI-Workloads mit verteilten Knoten zu steigern. Die InfiniBand-fähigen virtuellen Computer der H- und N-Serie sind über einen blockierungsfreien Fat Tree mit einem Design mit geringem Durchmesser verbunden, um eine optimierte und konsistente RDMA-Leistung zu erzielen. Weitere Informationen zur Einrichtung von InfiniBand auf den InfiniBand-fähigen virtuellen Computern finden Sie unter Aktivieren von InfiniBand.

Message Passing Interface

Von den SR-IOV-fähigen VMs der HB-Serie und der N-Serie werden nahezu alle MPI-Bibliotheken und -Versionen unterstützt. Einige der am häufigsten verwendeten MPI-Bibliotheken: Intel MPI, OpenMPI, HPC-X, MVAPICH2, MPICH, Platform MPI. Alle Verben für den Remotezugriff auf den direkten Speicher (Remote Direct Memory Access, RDMA) werden unterstützt. Weitere Informationen zur Installation verschiedener unterstützter MPI-Bibliotheken sowie zur optimalen Konfiguration finden Sie unter Einrichten von Message Passing Interface für HPC.

Erste Schritte

Der erste Schritt besteht darin, auf der Grundlage der VM-Spezifikationen und der RDMA-Fähigkeit den optimalen VM-Typ der HB-Serie und N-Serie für die Workload auszuwählen. Konfigurieren Sie anschließend den virtuellen Computer, indem Sie InfiniBand aktivieren. Hierfür gibt es verschiedene Methoden – beispielsweise die Verwendung optimierter VM-Images mit integrierten Treibern. Ausführliche Informationen finden Sie unter Konfigurieren und Optimieren virtueller Computer sowie unter Aktivieren von InfiniBand. Drittens: Für verteilte Knotenworkloads muss unbedingt MPI ausgewählt und ordnungsgemäß konfiguriert werden. Weitere Informationen finden Sie unter Einrichten von Message Passing Interface für HPC. Viertens: Konfigurieren Sie die Workloads optimal, wie im spezifischen Leitfaden für die VM-Familie beschrieben, um die bestmögliche Leistung und Skalierbarkeit zu erzielen. Entsprechende Informationen finden Sie beispielsweise in der Übersicht über virtuelle Computer der HBv3-Serie sowie in der Übersicht über virtuelle Computer der HC-Serie.

Nächste Schritte