Bagikan melalui


Mpi Kelas

Mengelola pengaturan Message Passing Interface (MPI) untuk pekerjaan pelatihan terdistribusi.

TIDAK DIGUNAKAN LAGI. Gunakan kelas MpiConfiguration.

MPI dapat ditentukan untuk pekerjaan dengan parameter distributed_training dari estimator Chainer, PyTorch, dan TensorFlow, yang telah dikonfigurasi sebelumnya, atau dengan generik Estimator.

Kelas untuk mengelola pengaturan MPI untuk pekerjaan.

Warisan
azureml.train._distributed_training._DistributedTraining
Mpi

Konstruktor

Mpi(process_count_per_node=1)

Parameter

Nama Deskripsi
process_count_per_node
int

Jumlah proses (atau "pekerja") untuk dijalankan pada setiap simpul.

Nilai default: 1
process_count_per_node
Diperlukan
int

Saat menggunakan MPI, jumlah proses per simpul.