ModuleStep Klasa

Tworzy krok potoku usługi Azure Machine Learning, aby uruchomić określoną wersję modułu.

Module obiekty definiują obliczenia wielokrotnego użytku, takie jak skrypty lub pliki wykonywalne, które mogą być używane w różnych scenariuszach uczenia maszynowego i przez różnych użytkowników. Aby użyć określonej wersji modułu w potoku, utwórz modułKrok. ModułKrok to krok w potoku, który używa istniejącego ModuleVersionelementu .

Przykład użycia modułuKrok można znaleźć w notesie https://aka.ms/pl-modulestep.

Utwórz krok potoku usługi Azure ML, aby uruchomić określoną wersję modułu.

Dziedziczenie
ModuleStep

Konstruktor

ModuleStep(module=None, version=None, module_version=None, inputs_map=None, outputs_map=None, compute_target=None, runconfig=None, runconfig_pipeline_params=None, arguments=None, params=None, name=None, _workflow_provider=None)

Parametry

module
Module
wartość domyślna: None

Moduł używany w kroku. Podaj parametr module lub, module_version ale nie oba.

version
str
wartość domyślna: None

Wersja modułu używana w kroku.

module_version
ModuleVersion
wartość domyślna: None

ModułVersion modułu używanego w kroku. Podaj parametr module lub, module_version ale nie oba.

inputs_map
dict[str, Union[InputPortBinding, DataReference, PortDataReference, PipelineData, PipelineOutputAbstractDataset, DatasetConsumptionConfig]]
wartość domyślna: None

Słownik, który mapuje nazwy definicji portów modułuVersion na dane wejściowe kroku.

outputs_map
dict[str, Union[OutputPortBinding, DataReference, PortDataReference, PipelineData, PipelineOutputAbstractDataset]]
wartość domyślna: None

Słownik, który mapuje nazwy definicji portów modułuVersion na dane wyjściowe kroku.

compute_target
Union[DsvmCompute, AmlCompute, RemoteCompute, HDInsightCompute, str, tuple]
wartość domyślna: None

Docelowy obiekt obliczeniowy do użycia. Jeśli nie zostanie określona, zostanie użyty element docelowy z konfiguracji runconfig. Może to być obiekt docelowy obliczeniowy lub nazwa ciągu docelowego obiektu obliczeniowego w obszarze roboczym. Opcjonalnie, jeśli obiekt docelowy obliczeniowy nie jest dostępny w czasie tworzenia potoku, możesz określić krotkę (nazwa obiektu docelowego obliczeniowego, typ docelowy obliczeniowy), aby uniknąć pobierania obiektu docelowego obliczeniowego (typ AmlCompute to "AmlCompute", a typ RemoteCompute to "VirtualMachine").

runconfig
RunConfiguration
wartość domyślna: None

Opcjonalna funkcja RunConfiguration do użycia. Za pomocą polecenia RunConfiguration można określić dodatkowe wymagania dotyczące przebiegu, takie jak zależności conda i obraz platformy Docker.

runconfig_pipeline_params
dict[str, PipelineParameter]
wartość domyślna: None

Zastąpienie właściwości runconfig w czasie wykonywania przy użyciu par klucz-wartość każdy z nazwami właściwości runconfig i PipelineParameter dla tej właściwości.

Obsługiwane wartości: "NodeCount", "MpiProcessCountPerNode", "TensorflowWorkerCount", "TensorflowParameterServerCount"

arguments
list[str]
wartość domyślna: None

Lista argumentów wiersza polecenia dla pliku skryptu języka Python. Argumenty zostaną dostarczone do docelowego obiektu obliczeniowego za pomocą argumentów w funkcji RunConfiguration. Aby uzyskać więcej informacji na temat obsługi argumentów, takich jak symbole specjalne, zobacz argumenty w RunConfiguration

params
dict[str, str]
wartość domyślna: None

Słownik par name-value.

name
str
wartość domyślna: None

Nazwa kroku.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
wartość domyślna: None

(Tylko użycie wewnętrzne). Dostawca przepływu pracy.

module
Module
Wymagane

Moduł używany w kroku. Podaj parametr module lub, module_version ale nie oba.

version
str
Wymagane

Wersja modułu używana w kroku.

module_version
ModuleVersion
Wymagane

ModuleVersion modułu użytego w kroku. Podaj parametr module lub, module_version ale nie oba.

inputs_map
dict[str, Union[InputPortBinding, DataReference, PortDataReference, PipelineData, <xref:azureml.pipeline.core.pipeline_output_dataset.PipelineOutputDataset>, DatasetConsumptionConfig]]
Wymagane

Słownik, który mapuje nazwy definicji portów modułuVersion na dane wejściowe kroku.

outputs_map
dict[str, Union[InputPortBinding, DataReference, PortDataReference, PipelineData, <xref:azureml.pipeline.core.pipeline_output_dataset.PipelineOutputDataset>]]
Wymagane

Słownik, który mapuje nazwy definicji portów modułuVersion na dane wyjściowe kroku.

compute_target
Union[DsvmCompute, AmlCompute, RemoteCompute, HDInsightCompute, str, tuple]
Wymagane

Docelowy obiekt obliczeniowy do użycia. Jeśli nie zostanie określona, zostanie użyty element docelowy z konfiguracji runconfig. Może to być obiekt docelowy obliczeniowy lub nazwa ciągu docelowego obiektu obliczeniowego w obszarze roboczym. Opcjonalnie, jeśli obiekt docelowy obliczeniowy nie jest dostępny w czasie tworzenia potoku, możesz określić krotkę (nazwa obiektu docelowego obliczeniowego, typ docelowy obliczeniowy), aby uniknąć pobierania obiektu docelowego obliczeniowego (typ AmlCompute to "AmlCompute", a typ RemoteCompute to "VirtualMachine").

runconfig
RunConfiguration
Wymagane

Opcjonalna funkcja RunConfiguration do użycia. Za pomocą polecenia RunConfiguration można określić dodatkowe wymagania dotyczące przebiegu, takie jak zależności conda i obraz platformy Docker.

runconfig_pipeline_params
dict[str, PipelineParameter]
Wymagane

Zastąpienie właściwości runconfig w czasie wykonywania przy użyciu par klucz-wartość każdy z nazwami właściwości runconfig i PipelineParameter dla tej właściwości.

Obsługiwane wartości: "NodeCount", "MpiProcessCountPerNode", "TensorflowWorkerCount", "TensorflowParameterServerCount"

arguments
list[str]
Wymagane

Lista argumentów wiersza polecenia dla pliku skryptu języka Python. Argumenty zostaną dostarczone do docelowego obiektu obliczeniowego za pomocą argumentów w funkcji RunConfiguration. Aby uzyskać więcej informacji na temat obsługi argumentów, takich jak symbole specjalne, zobacz argumenty w RunConfiguration

params
dict[str, str]
Wymagane

Słownik par name-value.

name
str
Wymagane

Nazwa kroku.

_wokflow_provider
Wymagane

(Tylko użycie wewnętrzne). Dostawca przepływu pracy.

Uwagi

Element służy Module do tworzenia jednostki obliczeniowej usługi Azure Machine Learning i zarządzania nią. ModuleStep to wbudowany krok w usłudze Azure Machine Learning używany do korzystania z modułu. Możesz zdefiniować w szczególności, który element ModuleVersion ma być używany, lub pozwolić usłudze Azure Machine Learning rozpoznać, który element ModuleVersion ma być używany zgodnie z procesem rozpoznawania zdefiniowanym w sekcji uwagi klasy Module . Aby zdefiniować, który element ModuleVersion jest używany w przesłanym potoku, zdefiniuj jeden z następujących elementów podczas tworzenia modułuKrok:

  • Obiekt ModuleVersion.

  • Module Obiekt i wartość wersji.

  • Module Obiekt bez wartości wersji. W takim przypadku rozwiązanie wersji może się różnić w zależności od przesyłania.

Należy zdefiniować mapowanie między danymi wejściowymi i wyjściowymi modułu moduleStep do danych wejściowych i wyjściowych moduleVersion.

W poniższym przykładzie pokazano, jak utworzyć element ModuleStep jako część potoku z wieloma obiektami ModuleStep:


   middle_step = ModuleStep(module=module,
                            inputs_map= middle_step_input_wiring,
                            outputs_map= middle_step_output_wiring,
                            runconfig=RunConfiguration(), compute_target=aml_compute,
                            arguments = ["--file_num1", first_sum, "--file_num2", first_prod,
                                         "--output_sum", middle_sum, "--output_product", middle_prod])

Pełna próbka jest dostępna z witryny https://github.com/Azure/MachineLearningNotebooks/blob/master/how-to-use-azureml/machine-learning-pipelines/intro-to-pipelines/aml-pipelines-how-to-use-modulestep.ipynb

Metody

create_node

Utwórz węzeł z kroku ModuleStep i dodaj go do określonego grafu.

Ta metoda nie jest przeznaczona do użycia bezpośrednio. Po utworzeniu wystąpienia potoku w tym kroku usługa Azure ML automatycznie przekazuje parametry wymagane za pomocą tej metody, aby można było dodać krok do wykresu potoku reprezentującego przepływ pracy.

create_node

Utwórz węzeł z kroku ModuleStep i dodaj go do określonego grafu.

Ta metoda nie jest przeznaczona do użycia bezpośrednio. Po utworzeniu wystąpienia potoku w tym kroku usługa Azure ML automatycznie przekazuje parametry wymagane za pomocą tej metody, aby można było dodać krok do wykresu potoku reprezentującego przepływ pracy.

create_node(graph, default_datastore, context)

Parametry

graph
Graph
Wymagane

Obiekt grafu, do który ma zostać dodany węzeł.

default_datastore
Union[AbstractAzureStorageDatastore, AzureDataLakeDatastore]
Wymagane

Domyślny magazyn danych.

context
<xref:azureml.pipeline.core._GraphContext>
Wymagane

Kontekst grafu.

Zwraca

Obiekt węzła.

Typ zwracany