Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Abschnitt
MPI_Allgather
Erfasst Daten von allen Mitgliedern einer Gruppe und sendet die Daten an alle Mitglieder der Gruppe.MPI_Allgatherv
Erfasst eine variable Menge an Daten von jedem Mitglied einer Gruppe und sendet die Daten an alle Mitglieder der Gruppe.MPI_Allreduce
Kombiniert Werte aus allen Prozessen und verteilt das Ergebnis wieder an alle Prozesse.MPI_Alltoall
Sammelt Daten aus und verteilt Daten an alle Mitglieder einer Gruppe.MPI_Alltoallv
Sammelt Daten aus und verteilt Daten an alle Mitglieder einer Gruppe.MPI_Alltoallw
Sammelt Daten aus und verteilt Daten an alle Mitglieder einer Gruppe.MPI_Barrier
Initiiert die Barrieresynchronisierung für alle Mitglieder einer Gruppe.MPI_Bcast
Sendet Daten von einem Mitglied einer Gruppe an alle Mitglieder der Gruppe.MPI_Gather
Sammelt Daten von allen Mitgliedern einer Gruppe zu einem Mitglied.MPI_Gatherv
Sammelt Variablendaten von allen Mitgliedern einer Gruppe zu einem Element.MPI_Iallgather
Erfasst Daten von allen Mitgliedern einer Gruppe und sendet die Daten nicht blockierend an alle Mitglieder der Gruppe.MPI_Iallreduce
Kombiniert Werte aus allen Prozessen und verteilt das Ergebnis nicht blockierend an alle Prozesse zurück.MPI_Ibarrier
Führt eine Barrieresynchronisierung für alle Mitglieder einer Gruppe auf nicht blockierende Weise durch.MPI_Ibcast
Sendet eine Nachricht aus dem Prozess mit dem Rang "root" auf nicht blockierende Weise an alle anderen Prozesse des Communicators.MPI_Igather
Sammelt Daten von allen Mitgliedern einer Gruppe zu einem Mitglied auf nicht blockierende Weise.MPI_Igatherv
Sammelt Variablendaten von allen Mitgliedern einer Gruppe zu einem Mitglied auf nicht blockierende Weise.MPI_Ireduce
Führt einen globalen Reduzierungsvorgang (z. B. Summe, Maximum oder logisches und) für alle Mitglieder einer Gruppe auf nicht blockierende Weise aus.MPI_Iscatter
Streut Daten von einem Mitglied auf alle Mitglieder einer Gruppe auf nicht blockierende Weise. Diese Funktion führt die Inverse des Vorgangs aus, der von der MPI_Igather-Funktionausgeführt wird.MPI_Iscatterv
MPI_Reduce
Führt einen globalen Reduzierungsvorgang für alle Mitglieder einer Gruppe aus.MPI_Scatter
Streut Daten von einem Element auf alle Mitglieder einer Gruppe.MPI_Scatterv
Streut Daten von einem Element auf alle Mitglieder einer Gruppe.MPI_Exscan
Berechnet den exklusiven Scan (teilweise Reduzierungen) von Daten für eine Sammlung von Prozessen.MPI_Op_create
Erstellt ein benutzerdefiniertes Kombinationsfunktionshandle.MPI_Op_free
Gibt ein benutzerdefiniertes Kombinationsfunktionshandle frei.MPI_Reduce_local
Wendet einen Reduktionsoperator auf lokale Argumente an.MPI_Reduce_scatter
Kombiniert Werte und streut die Ergebnisse.MPI_Scan
Berechnet die Überprüfung (teilweise Reduzierungen) von Daten für eine Sammlung von Prozessen.MPI_User_function
MPI_User_function ist ein Platzhalter für den anwendungsdefinierte Funktionsnamen.