Megosztás a következőn keresztül:


PipelineParameter Osztály

Definiál egy paramétert egy folyamatvégrehajtásban.

A PipelineParameters használatával sokoldalú folyamatokat hozhat létre, amelyek később, eltérő paraméterértékekkel újraküldhetők.

Folyamatparaméterek inicializálása.

Öröklődés
builtins.object
PipelineParameter

Konstruktor

PipelineParameter(name, default_value)

Paraméterek

name
str
Kötelező

A folyamatparaméter neve.

default_value
Union[int, str, bool, float, DataPath, PipelineDataset, FileDataset, TabularDataset]
Kötelező

A folyamatparaméter alapértelmezett értéke.

name
str
Kötelező

A folyamatparaméter neve.

default_value
Union[int, str, bool, float, DataPath, PipelineDataset, FileDataset, TabularDataset]
Kötelező

A folyamatparaméter alapértelmezett értéke.

Megjegyzések

Folyamatparaméterek a folyamat létrehozásakor bármely lépéshez hozzáadhatók. A folyamat elküldésekor meg lehet adni ezeknek a paramétereknek az értékeit.

A PipelineParameter lépéshez való hozzáadására példa a következő:


   from azureml.pipeline.steps import PythonScriptStep
   from azureml.pipeline.core import PipelineParameter

   pipeline_param = PipelineParameter(name="pipeline_arg", default_value="default_val")
   train_step = PythonScriptStep(script_name="train.py",
                                 arguments=["--param1", pipeline_param],
                                 target=compute_target,
                                 source_directory=project_folder)

Ebben a példában egy "pipeline_arg" nevű PipelineParameter lett hozzáadva egy PythonScriptStep argumentumaihoz. A Python-szkript futtatásakor a PipelineParameter értéke a parancssori argumentumokon keresztül lesz megadva. Ez a PipelineParameter a Folyamat más lépéseihez is hozzáadható, hogy a folyamat több lépéséhez is közös értékeket biztosítson. A folyamatokhoz több PipelineParameter is megadható.

A folyamat elküldéséhez és a "pipeline_arg" PipelineParameter-érték megadásához használja a következőt:


   pipeline = Pipeline(workspace=ws, steps=[train_step])
   pipeline_run = Experiment(ws, 'train').submit(pipeline, pipeline_parameters={"pipeline_arg": "test_value"})

Megjegyzés: ha a "pipeline_arg" nem szerepel a pipeline_parameters szótárban, akkor a rendszer a folyamat létrehozásakor megadott PipelineParameter alapértelmezett értékét használja (ebben az esetben az alapértelmezett érték a "default_val").

A többsoros paraméterek nem használhatók PipelineParametersként.

A PipelineParameters a és DataPathComputeBinding a DataPath használatával is használható a lépésbemenetek megadásához. Ez lehetővé teszi, hogy a folyamatok különböző bemeneti adatokkal fussanak.

Példa a DataPath PipelineParameters használatával való használatára:


   from azureml.core.datastore import Datastore
   from azureml.data.datapath import DataPath, DataPathComputeBinding
   from azureml.pipeline.steps import PythonScriptStep
   from azureml.pipeline.core import PipelineParameter

   datastore = Datastore(workspace=workspace, name="workspaceblobstore")
   datapath = DataPath(datastore=datastore, path_on_datastore='input_data')
   data_path_pipeline_param = (PipelineParameter(name="input_data", default_value=datapath),
                               DataPathComputeBinding(mode='mount'))

   train_step = PythonScriptStep(script_name="train.py",
                                 arguments=["--input", data_path_pipeline_param],
                                 inputs=[data_path_pipeline_param],
                                 compute_target=compute_target,
                                 source_directory=project_folder)

Ebben az esetben a "input_data" paraméter alapértelmezett értéke egy "input_data" nevű "workspaceblobstore" fájlra hivatkozik. Ha a folyamat a PipelineParameter értékének megadása nélkül van elküldve, a rendszer az alapértelmezett értéket használja. A folyamat elküldéséhez és a "input_data" PipelineParameter-érték megadásához használja a következőt:


   from azureml.pipeline.core import Pipeline
   from azureml.data.datapath import DataPath

   pipeline = Pipeline(workspace=ws, steps=[train_step])
   new_data_path = DataPath(datastore=datastore, path_on_datastore='new_input_data')
   pipeline_run = experiment.submit(pipeline,
                                    pipeline_parameters={"input_data": new_data_path})