Aracılığıyla paylaş


PipelineParameter Sınıf

İşlem hattı yürütmesinde parametre tanımlar.

PipelineParameters'ı kullanarak daha sonra farklı parametre değerleriyle yeniden iletilebilen çok yönlü İşlem Hatları oluşturun.

İşlem hattı parametrelerini başlatın.

Devralma
builtins.object
PipelineParameter

Oluşturucu

PipelineParameter(name, default_value)

Parametreler

name
str
Gerekli

İşlem hattı parametresinin adı.

default_value
Union[int, str, bool, float, DataPath, PipelineDataset, FileDataset, TabularDataset]
Gerekli

İşlem hattı parametresinin varsayılan değeri.

name
str
Gerekli

İşlem hattı parametresinin adı.

default_value
Union[int, str, bool, float, DataPath, PipelineDataset, FileDataset, TabularDataset]
Gerekli

İşlem hattı parametresinin varsayılan değeri.

Açıklamalar

PipelineParameters, İşlem Hattı oluştururken herhangi bir adıma eklenebilir. İşlem Hattı gönderildiğinde, bu parametrelerin değerleri belirtilebilir.

Bir adıma PipelineParameter ekleme örneği aşağıdaki gibidir:


   from azureml.pipeline.steps import PythonScriptStep
   from azureml.pipeline.core import PipelineParameter

   pipeline_param = PipelineParameter(name="pipeline_arg", default_value="default_val")
   train_step = PythonScriptStep(script_name="train.py",
                                 arguments=["--param1", pipeline_param],
                                 target=compute_target,
                                 source_directory=project_folder)

Bu örnekte PythonScriptStep bağımsız değişkenlerine "pipeline_arg" adlı bir PipelineParameter eklenmiştir. Python betiği çalıştırıldığında PipelineParameter değeri komut satırı bağımsız değişkenleri aracılığıyla sağlanır. Bu PipelineParameter, İşlem Hattı'ndaki birden çok adıma ortak değerler sağlamak için İşlem Hattı'ndaki diğer adımlara da eklenebilir. İşlem hatlarında birden çok PipelineParameter belirtilebilir.

Bu İşlem Hattını göndermek ve "pipeline_arg" PipelineParameter kullanımı için değeri belirtmek için:


   pipeline = Pipeline(workspace=ws, steps=[train_step])
   pipeline_run = Experiment(ws, 'train').submit(pipeline, pipeline_parameters={"pipeline_arg": "test_value"})

Not: pipeline_parameters sözlüğünde "pipeline_arg" belirtilmemişse, pipeline oluşturulduğunda sağlanan PipelineParameter'ın varsayılan değeri kullanılır (bu durumda sağlanan varsayılan değer "default_val") kullanılır.

Çok satırlı parametreler PipelineParameters olarak kullanılamaz.

PipelineParameters, adım girişlerini belirtmek için ve DataPathComputeBinding ile DataPath de kullanılabilir. Bu işlem hattının farklı giriş verileriyle çalıştırılmasını sağlar.

DataPath'i PipelineParameters ile kullanma örneği aşağıdaki gibidir:


   from azureml.core.datastore import Datastore
   from azureml.data.datapath import DataPath, DataPathComputeBinding
   from azureml.pipeline.steps import PythonScriptStep
   from azureml.pipeline.core import PipelineParameter

   datastore = Datastore(workspace=workspace, name="workspaceblobstore")
   datapath = DataPath(datastore=datastore, path_on_datastore='input_data')
   data_path_pipeline_param = (PipelineParameter(name="input_data", default_value=datapath),
                               DataPathComputeBinding(mode='mount'))

   train_step = PythonScriptStep(script_name="train.py",
                                 arguments=["--input", data_path_pipeline_param],
                                 inputs=[data_path_pipeline_param],
                                 compute_target=compute_target,
                                 source_directory=project_folder)

Bu durumda, "input_data" parametresinin varsayılan değeri "workspaceblobstore" üzerindeki "input_data" adlı bir dosyaya başvurur. İşlem Hattı bu PipelineParameter için bir değer belirtilmeden gönderilirse, varsayılan değer kullanılır. Bu İşlem Hattını göndermek ve "input_data" PipelineParameter değerini belirtmek için:


   from azureml.pipeline.core import Pipeline
   from azureml.data.datapath import DataPath

   pipeline = Pipeline(workspace=ws, steps=[train_step])
   new_data_path = DataPath(datastore=datastore, path_on_datastore='new_input_data')
   pipeline_run = experiment.submit(pipeline,
                                    pipeline_parameters={"input_data": new_data_path})