다음을 통해 공유


MPI 집합 함수

섹션 내용

  • MPI_Allgather
    그룹의 모든 멤버에서 데이터를 수집하고 그룹의 모든 멤버에게 데이터를 보냅니다.

  • MPI_Allgatherv
    그룹의 각 멤버에서 가변적인 양의 데이터를 수집하고 그룹의 모든 멤버에게 데이터를 보냅니다.

  • MPI_Allreduce
    모든 프로세스의 값을 결합하고 결과를 모든 프로세스에 다시 배포합니다.

  • MPI_Alltoall
    에서 데이터를 수집하고 그룹의 모든 멤버에 데이터를 분산합니다.

  • MPI_Alltoallv
    에서 데이터를 수집하고 그룹의 모든 멤버에 데이터를 분산합니다.

  • MPI_Alltoallw
    에서 데이터를 수집하고 그룹의 모든 멤버에 데이터를 분산합니다.

  • MPI_Barrier
    그룹의 모든 멤버에서 장벽 동기화를 시작합니다.

  • MPI_Bcast
    그룹의 한 멤버에서 그룹의 모든 멤버로 데이터를 브로드캐스트합니다.

  • MPI_Gather
    그룹의 모든 멤버에서 하나의 멤버로 데이터를 수집합니다.

  • MPI_Gatherv
    그룹의 모든 멤버에서 하나의 멤버로 변수 데이터를 수집합니다.

  • MPI_Iallgather
    그룹의 모든 멤버에서 데이터를 수집하고 비 차단 방식으로 그룹의 모든 멤버에게 데이터를 보냅니다.

  • MPI_Iallreduce
    모든 프로세스의 값을 결합하고 비블로킹 방식으로 결과를 모든 프로세스에 다시 배포합니다.

  • MPI_Ibarrier
    비차단 방식으로 그룹의 모든 멤버에서 장벽 동기화를 수행합니다.

  • MPI_Ibcast
    순위가 "root"인 프로세스의 메시지를 비 차단 방식으로 통신기의 다른 모든 프로세스로 브로드캐스트합니다.

  • MPI_Igather
    비차단 방식으로 그룹의 모든 멤버에서 하나의 멤버로 데이터를 수집합니다.

  • MPI_Igatherv
    비차단 방식으로 그룹의 모든 멤버에서 하나의 멤버로 변수 데이터를 수집합니다.

  • MPI_Ireduce
    비 차단 방식으로 그룹의 모든 멤버에 대해 전역 축소 작업(예: 합계, 최대값 또는 논리 및)을 수행합니다.

  • MPI_Iscatter
    비차단 방식으로 그룹의 모든 멤버에 한 멤버의 데이터를 분산합니다. 이 함수는 MPI_Igather함수에서 수행하는 작업의 역방향 작업을 수행합니다.

  • MPI_Iscatterv
    MPI_Reduce
    그룹의 모든 멤버에서 전역 축소 작업을 수행합니다.

  • MPI_Scatter
    한 멤버의 데이터를 그룹의 모든 멤버에 분산합니다.

  • MPI_Scatterv
    한 멤버의 데이터를 그룹의 모든 멤버에 분산합니다.

  • MPI_Exscan
    프로세스 컬렉션에서 데이터의 배타적 검사(부분 감소)를 계산합니다.

  • MPI_Op_create
    사용자 정의 조합 함수 핸들을 만듭니다.

  • MPI_Op_free
    사용자 정의 조합 함수 핸들을 해제합니다.

  • MPI_Reduce_local
    감소 연산자를 로컬 인수에 적용합니다.

  • MPI_Reduce_scatter
    값을 결합하고 결과를 분산합니다.

  • MPI_Scan
    프로세스 컬렉션에서 데이터의 검사(부분 감소)를 계산합니다.

  • MPI_User_function
    MPI_User_function 애플리케이션 정의 함수 이름의 자리 표시자입니다.