PipelineParameter Sınıf

İşlem hattı yürütmesinde parametre tanımlar.

PipelineParameters'ı kullanarak daha sonra değişen parametre değerleriyle yeniden yayımlanabilen çok yönlü İşlem Hatları oluşturun.

İşlem hattı parametrelerini başlatın.

Devralma
builtins.object
PipelineParameter

Oluşturucu

PipelineParameter(name, default_value)

Parametreler

name
str
Gerekli

İşlem hattı parametresinin adı.

default_value
Union[int, str, bool, float, DataPath, PipelineDataset, FileDataset, TabularDataset]
Gerekli

İşlem hattı parametresinin varsayılan değeri.

name
str
Gerekli

İşlem hattı parametresinin adı.

default_value
Union[int, str, bool, float, DataPath, PipelineDataset, FileDataset, TabularDataset]
Gerekli

İşlem hattı parametresinin varsayılan değeri.

Açıklamalar

PipelineParameters, İşlem Hattı oluştururken herhangi bir adıma eklenebilir. İşlem Hattı gönderildiğinde, bu parametrelerin değerleri belirtilebilir.

Bir adıma PipelineParameter ekleme örneği aşağıdaki gibidir:


   from azureml.pipeline.steps import PythonScriptStep
   from azureml.pipeline.core import PipelineParameter

   pipeline_param = PipelineParameter(name="pipeline_arg", default_value="default_val")
   train_step = PythonScriptStep(script_name="train.py",
                                 arguments=["--param1", pipeline_param],
                                 target=compute_target,
                                 source_directory=project_folder)

Bu örnekte, PythonScriptStep bağımsız değişkenlerine "pipeline_arg" adlı bir PipelineParameter eklenmiştir. Python betiği çalıştırıldığında PipelineParameter değeri komut satırı bağımsız değişkenleri aracılığıyla sağlanır. Bu PipelineParameter, İşlem Hattı'ndaki birden çok adıma ortak değerler sağlamak için İşlem Hattı'ndaki diğer adımlara da eklenebilir. İşlem hatlarında birden çok PipelineParameter belirtilebilir.

Bu İşlem Hattını göndermek ve "pipeline_arg" PipelineParameter değerini belirtmek için şunu kullanın:


   pipeline = Pipeline(workspace=ws, steps=[train_step])
   pipeline_run = Experiment(ws, 'train').submit(pipeline, pipeline_parameters={"pipeline_arg": "test_value"})

Not: pipeline_parameters sözlüğünde "pipeline_arg" belirtilmemişse, Pipeline oluşturulduğu sırada sağlanan PipelineParameter'ın varsayılan değeri kullanılır (bu durumda sağlanan varsayılan değer "default_val" idi).

Çok satırlı parametreler PipelineParameters olarak kullanılamaz.

PipelineParameters, adım girişlerini belirtmek için ve DataPathComputeBinding ile DataPath de kullanılabilir. Bu işlem hattının farklı giriş verileriyle çalıştırılmasını sağlar.

DataPath'i PipelineParameters ile kullanma örneği aşağıdaki gibidir:


   from azureml.core.datastore import Datastore
   from azureml.data.datapath import DataPath, DataPathComputeBinding
   from azureml.pipeline.steps import PythonScriptStep
   from azureml.pipeline.core import PipelineParameter

   datastore = Datastore(workspace=workspace, name="workspaceblobstore")
   datapath = DataPath(datastore=datastore, path_on_datastore='input_data')
   data_path_pipeline_param = (PipelineParameter(name="input_data", default_value=datapath),
                               DataPathComputeBinding(mode='mount'))

   train_step = PythonScriptStep(script_name="train.py",
                                 arguments=["--input", data_path_pipeline_param],
                                 inputs=[data_path_pipeline_param],
                                 compute_target=compute_target,
                                 source_directory=project_folder)

Bu durumda, "input_data" parametresinin varsayılan değeri "workspaceblobstore" üzerindeki "input_data" adlı bir dosyaya başvurur. İşlem Hattı, bu PipelineParameter için bir değer belirtilmeden gönderilirse, varsayılan değer kullanılır. Bu İşlem Hattını göndermek ve "input_data" PipelineParameter değerini belirtmek için şunu kullanın:


   from azureml.pipeline.core import Pipeline
   from azureml.data.datapath import DataPath

   pipeline = Pipeline(workspace=ws, steps=[train_step])
   new_data_path = DataPath(datastore=datastore, path_on_datastore='new_input_data')
   pipeline_run = experiment.submit(pipeline,
                                    pipeline_parameters={"input_data": new_data_path})