AzureBatchStep Klass

Skapar ett Azure ML Pipeline-steg för att skicka jobb till Azure Batch.

Obs! Det här steget stöder inte uppladdning/nedladdning av kataloger och deras innehåll.

Ett exempel på hur du använder AzureBatchStep finns i notebook-filen https://aka.ms/pl-azbatch.

Skapa ett Azure ML Pipeline-steg för att skicka jobb till Azure Batch.

Arv
azureml.pipeline.core._azurebatch_step_base._AzureBatchStepBase
AzureBatchStep

Konstruktor

AzureBatchStep(name, create_pool=False, pool_id=None, delete_batch_job_after_finish=True, delete_batch_pool_after_finish=False, is_positive_exit_code_failure=True, vm_image_urn='urn:MicrosoftWindowsServer:WindowsServer:2012-R2-Datacenter', run_task_as_admin=False, target_compute_nodes=1, vm_size='standard_d1_v2', source_directory=None, executable=None, arguments=None, inputs=None, outputs=None, allow_reuse=True, compute_target=None, version=None)

Parametrar

name
str
Obligatorisk

[Krävs] Namnet på steget.

create_pool
bool
standardvärde: False

Anger om du vill skapa poolen innan du kör jobben.

pool_id
str
standardvärde: None

[Krävs] ID:t för poolen där jobbet körs. ID:t kan vara en befintlig pool eller en som skapas när jobbet skickas.

delete_batch_job_after_finish
bool
standardvärde: True

Anger om jobbet ska tas bort från Batch-kontot när det är klart.

delete_batch_pool_after_finish
bool
standardvärde: False

Anger om poolen ska tas bort när jobbet har slutförts.

is_positive_exit_code_failure
bool
standardvärde: True

Anger om jobbet misslyckas om aktiviteten finns med en positiv kod.

vm_image_urn
str
standardvärde: urn:MicrosoftWindowsServer:WindowsServer:2012-R2-Datacenter

Om create_pool är Sant och den virtuella datorn använder VirtualMachineConfiguration. Värdeformat: urn:publisher:offer:sku. Exempel: urn:MicrosoftWindowsServer:WindowsServer:2012-R2-Datacenter.

run_task_as_admin
bool
standardvärde: False

Anger om uppgiften ska köras med administratörsbehörighet.

target_compute_nodes
int
standardvärde: 1

Om create_pool är Sant anger du hur många beräkningsnoder som ska läggas till i poolen.

vm_size
str
standardvärde: standard_d1_v2

Om create_pool är Sant anger du storleken på den virtuella datorn för beräkningsnoderna.

source_directory
str
standardvärde: None

En lokal mapp som innehåller modulens binärfiler, körbara filer, sammansättningar osv.

executable
str
standardvärde: None

[Krävs] Namnet på kommandot/den körbara filen som ska köras som en del av jobbet.

arguments
str
standardvärde: None

Argument för kommandot/den körbara filen.

inputs
list[Union[InputPortBinding, DataReference, PortDataReference, PipelineData]]
standardvärde: None

En lista över indataportbindningar. Innan jobbet körs skapas en mapp för varje indata. Filerna för varje indata kopieras från lagringen till respektive mapp på beräkningsnoden. Om indatanamnet till exempel är input1 och den relativa sökvägen på lagringen är viss/relativ/sökväg/som/kan/kan/verkligen/lång/inputfile.txt, blir filsökvägen på beräkningen: ./input1/inputfile.txt. När indatanamnet är längre än 32 tecken trunkeras det och läggs till med ett unikt suffix så att mappnamnet kan skapas på beräkningsmålet.

outputs
list[Union[PipelineData, PipelineOutputAbstractDataset, OutputPortBinding]]
standardvärde: None

En lista över portbindningar för utdata. Precis som indata skapas en mapp för varje utdata innan jobbet körs. Mappnamnet är samma som utdatanamnet. Antagandet är att jobbet placerar utdata i den mappen.

allow_reuse
bool
standardvärde: True

Anger om steget ska återanvända tidigare resultat när det körs igen med samma inställningar. Återanvändning är aktiverat som standard. Om steginnehållet (skript/beroenden) samt indata och parametrar förblir oförändrade återanvänds utdata från föregående körning av det här steget. När du återanvänder steget, i stället för att skicka jobbet för beräkning, görs resultaten från den föregående körningen omedelbart tillgängliga för efterföljande steg. Om du använder Azure Machine Learning-datauppsättningar som indata bestäms återanvändningen av om datauppsättningens definition har ändrats, inte av om underliggande data har ändrats.

compute_target
BatchCompute, str
standardvärde: None

[Krävs] En BatchCompute-beräkning där jobbet körs.

version
str
standardvärde: None

En valfri versionstagg som anger en funktionsändring för modulen.

name
str
Obligatorisk

[Krävs] Namnet på steget.

create_pool
bool
Obligatorisk

Anger om du vill skapa poolen innan du kör jobben.

pool_id
str
Obligatorisk

[Krävs] ID:t för poolen där jobbet körs. ID:t kan vara en befintlig pool eller en som skapas när jobbet skickas.

delete_batch_job_after_finish
bool
Obligatorisk

Anger om jobbet ska tas bort från Batch-kontot när det är klart.

delete_batch_pool_after_finish
bool
Obligatorisk

Anger om poolen ska tas bort när jobbet har slutförts.

is_positive_exit_code_failure
bool
Obligatorisk

Anger om jobbet misslyckas om aktiviteten finns med en positiv kod.

vm_image_urn
str
Obligatorisk

Om create_pool är Sant och den virtuella datorn använder VirtualMachineConfiguration. Värdeformat: urn:publisher:offer:sku. Exempel: urn:MicrosoftWindowsServer:WindowsServer:2012-R2-Datacenter.

run_task_as_admin
bool
Obligatorisk

Anger om uppgiften ska köras med administratörsbehörighet.

target_compute_nodes
int
Obligatorisk

Om create_pool är Sant anger du hur många beräkningsnoder som ska läggas till i poolen.

vm_size
str
Obligatorisk

Om create_pool är Sant anger du storleken på den virtuella datorn för beräkningsnoderna.

source_directory
str
Obligatorisk

En lokal mapp som innehåller modulen binärfiler, körbara filer, sammansättningar osv.

executable
str
Obligatorisk

[Krävs] Namnet på kommandot/den körbara filen som ska köras som en del av jobbet.

arguments
list
Obligatorisk

Argument för kommandot/den körbara filen.

inputs
list[Union[InputPortBinding, DataReference, PortDataReference, PipelineData]]
Obligatorisk

En lista över indataportbindningar. Innan jobbet körs skapas en mapp för varje indata. Filerna för varje indata kopieras från lagringen till respektive mapp på beräkningsnoden. Om indatanamnet till exempel är input1 och den relativa sökvägen på lagringen är viss/relativ/sökväg/som/kan/kan/verkligen/lång/inputfile.txt, blir filsökvägen på beräkningen: ./input1/inputfile.txt. Om indatanamnet är längre än 32 tecken trunkeras det och läggs till med ett unikt suffix, så att mappnamnet kan skapas på beräkningen.

outputs
list[Union[PipelineData, PipelineOutputAbstractDataset, OutputPortBinding]]
Obligatorisk

En lista över portbindningar för utdata. Precis som indata skapas en mapp för varje utdata innan jobbet körs. Mappnamnet är samma som utdatanamnet. Antagandet är att jobbet kommer att ha utdata till den mappen.

allow_reuse
bool
Obligatorisk

Anger om steget ska återanvända tidigare resultat när det körs igen med samma inställningar. Återanvändning är aktiverat som standard. Om steginnehållet (skript/beroenden) samt indata och parametrar förblir oförändrade återanvänds utdata från föregående körning av det här steget. När du återanvänder steget, i stället för att skicka jobbet för beräkning, görs resultaten från den föregående körningen omedelbart tillgängliga för efterföljande steg. Om du använder Azure Machine Learning-datauppsättningar som indata bestäms återanvändningen av om datauppsättningens definition har ändrats, inte av om underliggande data har ändrats.

compute_target
BatchCompute, str
Obligatorisk

[Krävs] En BatchCompute-beräkning där jobbet körs.

version
str
Obligatorisk

En valfri versionstagg som anger en funktionsändring för modulen.

Kommentarer

I följande exempel visas hur du använder AzureBatchStep i en Azure Machine Learning-pipeline.


   step = AzureBatchStep(
               name="Azure Batch Job",
               pool_id="MyPoolName", # Replace this with the pool name of your choice
               inputs=[testdata],
               outputs=[outputdata],
               executable="azurebatch.cmd",
               arguments=[testdata, outputdata],
               compute_target=batch_compute,
               source_directory=binaries_folder,
   )

Fullständigt exempel är tillgängligt från https://github.com/Azure/MachineLearningNotebooks/blob/master/how-to-use-azureml/machine-learning-pipelines/intro-to-pipelines/aml-pipelines-how-to-use-azurebatch-to-run-a-windows-executable.ipynb

Metoder

create_node

Skapa en nod från AzureBatch-steget och lägg till den i den angivna grafen.

Den här metoden är inte avsedd att användas direkt. När en pipeline instansieras med det här steget skickar Azure ML automatiskt de parametrar som krävs via den här metoden så att steget kan läggas till i ett pipelinediagram som representerar arbetsflödet.

create_node

Skapa en nod från AzureBatch-steget och lägg till den i den angivna grafen.

Den här metoden är inte avsedd att användas direkt. När en pipeline instansieras med det här steget skickar Azure ML automatiskt de parametrar som krävs via den här metoden så att steget kan läggas till i ett pipelinediagram som representerar arbetsflödet.

create_node(graph, default_datastore, context)

Parametrar

graph
Graph
Obligatorisk

Grafobjektet som noden ska läggas till i.

default_datastore
Union[AbstractAzureStorageDatastore, AzureDataLakeDatastore]
Obligatorisk

Standarddatalagringen.

context
<xref:azureml.pipeline.core._GraphContext>
Obligatorisk

Grafkontexten.

Returer

Den skapade noden.

Returtyp