Dela via


PythonScriptStep Klass

Skapar ett Azure ML Pipeline-steg som kör Python-skript.

Ett exempel på hur du använder PythonScriptStep finns i notebook-filen https://aka.ms/pl-get-started.

Skapa ett Azure ML Pipeline-steg som kör Python-skript.

Arv
azureml.pipeline.core._python_script_step_base._PythonScriptStepBase
PythonScriptStep

Konstruktor

PythonScriptStep(script_name, name=None, arguments=None, compute_target=None, runconfig=None, runconfig_pipeline_params=None, inputs=None, outputs=None, params=None, source_directory=None, allow_reuse=True, version=None, hash_paths=None)

Parametrar

Name Description
script_name
Obligatorisk
str

[Krävs] Namnet på ett Python-skript i förhållande till source_directory.

name
str

Namnet på steget. Om det är ospecificerat script_name används.

Standardvärde: None
arguments

Kommandoradsargument för Python-skriptfilen. Argumenten skickas till beräkning via parametern arguments i RunConfiguration. Mer information om hur du hanterar argument som specialsymboler finns i RunConfiguration.

Standardvärde: None
compute_target

[Krävs] Beräkningsmålet som ska användas. Om det är ospecificerat används målet från runconfig. Den här parametern kan anges som ett beräkningsmålobjekt eller strängnamnet för ett beräkningsmål på arbetsytan. Om beräkningsmålet inte är tillgängligt när pipelinen skapas kan du ange en tupplar med ("beräkningsmålnamn", "beräkningsmåltyp") för att undvika att hämta beräkningsmålobjektet (AmlCompute-typen är "AmlCompute" och RemoteCompute-typen är "VirtualMachine").

Standardvärde: None
runconfig

Den valfria RunConfiguration som ska användas. En RunConfiguration kan användas för att ange ytterligare krav för körningen, till exempel conda-beroenden och en docker-avbildning. Om det är ospecificerat skapas en standardkörningskonfiguration.

Standardvärde: None
runconfig_pipeline_params

Åsidosättningar av runconfig-egenskaper vid körning med nyckel/värde-par var och en med namnet på egenskapen runconfig och PipelineParameter för den egenskapen.

Värden som stöds: NodeCount, MpiProcessCountPerNode, TensorflowWorkerCount, TensorflowParameterServerCount

Standardvärde: None
inputs

En lista över indataportbindningar.

Standardvärde: None
outputs

En lista över portbindningar för utdata.

Standardvärde: None
params

En ordlista med namn/värde-par som registrerats som miljövariabler med "AML_PARAMETER_".

Standardvärde: None
source_directory
str

En mapp som innehåller Python-skript, conda env och andra resurser som används i steget.

Standardvärde: None
allow_reuse

Anger om steget ska återanvända tidigare resultat när det körs igen med samma inställningar. Återanvändning är aktiverat som standard. Om steginnehållet (skript/beroenden) samt indata och parametrar förblir oförändrade återanvänds utdata från föregående körning av det här steget. När du återanvänder steget, i stället för att skicka jobbet för beräkning, görs resultaten från den föregående körningen omedelbart tillgängliga för efterföljande steg. Om du använder Azure Machine Learning-datauppsättningar som indata bestäms återanvändningen av om datauppsättningens definition har ändrats, inte av om underliggande data har ändrats.

Standardvärde: True
version
str

En valfri versionstagg som anger en funktionsändring för steget.

Standardvärde: None
hash_paths

INAKTUELL: behövs inte längre.

En lista över sökvägar till hash när du söker efter ändringar i steginnehållet. Om inga ändringar har identifierats återanvänder pipelinen steginnehållet från en tidigare körning. Som standard hashas innehållet source_directory i förutom filer som anges i .amlignore eller .gitignore.

Standardvärde: None
script_name
Obligatorisk
str

[Krävs] Namnet på ett Python-skript i förhållande till source_directory.

name
Obligatorisk
str

Namnet på steget. Om det är ospecificerat script_name används.

arguments
Obligatorisk
[str]

Kommandoradsargument för Python-skriptfilen. Argumenten skickas till beräkning via parametern arguments i RunConfiguration. Mer information om hur du hanterar argument som specialsymboler finns i RunConfiguration.

compute_target
Obligatorisk

[Krävs] Beräkningsmålet som ska användas. Om det är ospecificerat används målet från runconfig. Den här parametern kan anges som ett beräkningsmålobjekt eller strängnamnet för ett beräkningsmål på arbetsytan. Om beräkningsmålet inte är tillgängligt när pipelinen skapas kan du ange en tupplar med ("beräkningsmålnamn", "beräkningsmåltyp") för att undvika att hämta beräkningsmålobjektet (AmlCompute-typen är "AmlCompute" och RemoteCompute-typen är "VirtualMachine").

runconfig
Obligatorisk

Den valfria RunConfiguration som ska användas. RunConfiguration kan användas för att ange ytterligare krav för körningen, till exempel conda-beroenden och en docker-avbildning. Om det är ospecificerat skapas en standardkörningskonfiguration.

runconfig_pipeline_params
Obligatorisk

Åsidosättningar av runconfig-egenskaper vid körning med nyckel/värde-par var och en med namnet på egenskapen runconfig och PipelineParameter för den egenskapen.

Värden som stöds: NodeCount, MpiProcessCountPerNode, TensorflowWorkerCount, TensorflowParameterServerCount

inputs
Obligatorisk

En lista över indataportbindningar.

outputs
Obligatorisk

En lista över portbindningar för utdata.

params
Obligatorisk
<xref:<xref:{str: str}>>

En ordlista med namn/värde-par. Registrerad som miljövariabler med ">>AML_PARAMETER_<<".

source_directory
Obligatorisk
str

En mapp som innehåller Python-skript, conda env och andra resurser som används i steget.

allow_reuse
Obligatorisk

Anger om steget ska återanvända tidigare resultat när det körs igen med samma inställningar. Återanvändning är aktiverat som standard. Om steginnehållet (skript/beroenden) samt indata och parametrar förblir oförändrade återanvänds utdata från föregående körning av det här steget. När du återanvänder steget, i stället för att skicka jobbet för beräkning, görs resultaten från den föregående körningen omedelbart tillgängliga för efterföljande steg. Om du använder Azure Machine Learning-datauppsättningar som indata bestäms återanvändningen av om datauppsättningens definition har ändrats, inte av om underliggande data har ändrats.

version
Obligatorisk
str

En valfri versionstagg som anger en funktionsändring för steget.

hash_paths
Obligatorisk

INAKTUELL: behövs inte längre.

En lista över sökvägar till hash när du söker efter ändringar i steginnehållet. Om inga ändringar har identifierats återanvänder pipelinen steginnehållet från en tidigare körning. Som standard hashas innehållet source_directory i förutom filer som anges i .amlignore eller .gitignore.

Kommentarer

Ett PythonScriptStep är ett grundläggande, inbyggt steg för att köra ett Python-skript på ett beräkningsmål. Det tar ett skriptnamn och andra valfria parametrar som argument för skriptet, beräkningsmål, indata och utdata. Om inget beräkningsmål anges används standardberäkningsmålet för arbetsytan. Du kan också använda a RunConfiguration för att ange krav för PythonScriptStep, till exempel conda-beroenden och docker-avbildning.

Det bästa sättet att arbeta med PythonScriptStep är att använda en separat mapp för skript och beroende filer som är associerade med steget och ange mappen med parametern source_directory . Att följa den här bästa metoden har två fördelar. Först hjälper det till att minska storleken på ögonblicksbilden som skapats för steget eftersom endast det som behövs för steget ögonblicksbilderas. För det andra kan stegets utdata från en tidigare körning återanvändas om det inte finns några ändringar i source_directory som skulle utlösa en återuppladdning av ögonblicksbilden.

Följande kodexempel visar hur du använder ett PythonScriptStep i ett scenario med maskininlärningsträning. Mer information om det här exemplet finns i https://aka.ms/pl-first-pipeline.


   from azureml.pipeline.steps import PythonScriptStep

   trainStep = PythonScriptStep(
       script_name="train.py",
       arguments=["--input", blob_input_data, "--output", output_data1],
       inputs=[blob_input_data],
       outputs=[output_data1],
       compute_target=compute_target,
       source_directory=project_folder
   )

PythonScriptSteps stöder ett antal in- och utdatatyper. Dessa omfattar DatasetConsumptionConfig indata och OutputDatasetConfig, PipelineOutputAbstractDatasetoch PipelineData för indata och utdata.

Nedan visas ett exempel på hur du använder Dataset indata och utdata i ett steg:


   from azureml.core import Dataset
   from azureml.pipeline.steps import PythonScriptStep
   from azureml.pipeline.core import Pipeline, PipelineData

   # get input dataset
   input_ds = Dataset.get_by_name(workspace, 'weather_ds')

   # register pipeline output as dataset
   output_ds = PipelineData('prepared_weather_ds', datastore=datastore).as_dataset()
   output_ds = output_ds.register(name='prepared_weather_ds', create_new_version=True)

   # configure pipeline step to use dataset as the input and output
   prep_step = PythonScriptStep(script_name="prepare.py",
                                inputs=[input_ds.as_named_input('weather_ds')],
                                outputs=[output_ds],
                                compute_target=compute_target,
                                source_directory=project_folder)

Se motsvarande dokumentationssidor för exempel på hur du använder andra typer av indata/utdata.

Metoder

create_node

Skapa en nod för PythonScriptStep och lägg till den i den angivna grafen.

Den här metoden är inte avsedd att användas direkt. När en pipeline instansieras med det här steget skickar Azure ML automatiskt de parametrar som krävs via den här metoden så att steget kan läggas till i ett pipelinediagram som representerar arbetsflödet.

create_node

Skapa en nod för PythonScriptStep och lägg till den i den angivna grafen.

Den här metoden är inte avsedd att användas direkt. När en pipeline instansieras med det här steget skickar Azure ML automatiskt de parametrar som krävs via den här metoden så att steget kan läggas till i ett pipelinediagram som representerar arbetsflödet.

create_node(graph, default_datastore, context)

Parametrar

Name Description
graph
Obligatorisk

Grafobjektet som noden ska läggas till i.

default_datastore
Obligatorisk

Standarddatalagringen.

context
Obligatorisk
<xref:azureml.pipeline.core._GraphContext>

Grafkontexten.

Returer

Typ Description

Den skapade noden.