Dela via


AzureBatchStep Klass

Skapar ett Azure ML Pipeline-steg för att skicka jobb till Azure Batch.

Obs! Det här steget stöder inte uppladdning/nedladdning av kataloger och deras innehåll.

Ett exempel på hur du använder AzureBatchStep finns i notebook-filen https://aka.ms/pl-azbatch.

Skapa ett Azure ML Pipeline-steg för att skicka jobb till Azure Batch.

Arv
azureml.pipeline.core._azurebatch_step_base._AzureBatchStepBase
AzureBatchStep

Konstruktor

AzureBatchStep(name, create_pool=False, pool_id=None, delete_batch_job_after_finish=True, delete_batch_pool_after_finish=False, is_positive_exit_code_failure=True, vm_image_urn='urn:MicrosoftWindowsServer:WindowsServer:2012-R2-Datacenter', run_task_as_admin=False, target_compute_nodes=1, vm_size='standard_d1_v2', source_directory=None, executable=None, arguments=None, inputs=None, outputs=None, allow_reuse=True, compute_target=None, version=None)

Parametrar

Name Description
name
Obligatorisk
str

[Krävs] Namnet på steget.

create_pool

Anger om du vill skapa poolen innan du kör jobben.

Standardvärde: False
pool_id
str

[Krävs] ID:t för poolen där jobbet körs. ID:t kan vara en befintlig pool eller en som skapas när jobbet skickas.

Standardvärde: None
delete_batch_job_after_finish

Anger om jobbet ska tas bort från Batch-kontot när det är klart.

Standardvärde: True
delete_batch_pool_after_finish

Anger om poolen ska tas bort när jobbet har slutförts.

Standardvärde: False
is_positive_exit_code_failure

Anger om jobbet misslyckas om aktiviteten finns med en positiv kod.

Standardvärde: True
vm_image_urn
str

Om create_pool är Sant och den virtuella datorn använder VirtualMachineConfiguration. Värdeformat: urn:publisher:offer:sku. Exempel: urn:MicrosoftWindowsServer:WindowsServer:2012-R2-Datacenter.

Standardvärde: urn:MicrosoftWindowsServer:WindowsServer:2012-R2-Datacenter
run_task_as_admin

Anger om uppgiften ska köras med administratörsbehörighet.

Standardvärde: False
target_compute_nodes
int

Om create_pool är Sant anger du hur många beräkningsnoder som ska läggas till i poolen.

Standardvärde: 1
vm_size
str

Om create_pool är Sant anger den virtuella datorns storlek för beräkningsnoderna.

Standardvärde: standard_d1_v2
source_directory
str

En lokal mapp som innehåller modulens binärfiler, körbara filer, sammansättningar osv.

Standardvärde: None
executable
str

[Krävs] Namnet på det kommando/den körbara fil som ska köras som en del av jobbet.

Standardvärde: None
arguments
str

Argument för kommandot/den körbara filen.

Standardvärde: None
inputs

En lista över indataportbindningar. Innan jobbet körs skapas en mapp för varje indata. Filerna för varje indata kopieras från lagringen till respektive mapp på beräkningsnoden. Om indatanamnet till exempel är input1 och den relativa sökvägen i lagringen är some/relative/path/that/can/be/really/long/inputfile.txtblir filsökvägen i beräkningen: ./input1/inputfile.txt. När indatanamnet är längre än 32 tecken trunkeras det och läggs till med ett unikt suffix så att mappnamnet kan skapas på beräkningsmålet.

Standardvärde: None
outputs

En lista över portbindningar för utdata. Precis som indata skapas en mapp för varje utdata innan jobbet körs. Mappnamnet är samma som utdatanamnet. Antagandet är att jobbet kommer att placera utdata i den mappen.

Standardvärde: None
allow_reuse

Anger om steget ska återanvända tidigare resultat när det körs igen med samma inställningar. Återanvändning är aktiverat som standard. Om steginnehållet (skript/beroenden) samt indata och parametrar förblir oförändrade återanvänds utdata från föregående körning av det här steget. När du återanvänder steget görs resultaten från den föregående körningen omedelbart tillgängliga för efterföljande steg i stället för att skicka jobbet för beräkning. Om du använder Azure Machine Learning-datauppsättningar som indata bestäms återanvändning av om datauppsättningens definition har ändrats, inte av om underliggande data har ändrats.

Standardvärde: True
compute_target

[Krävs] En BatchCompute-beräkning där jobbet körs.

Standardvärde: None
version
str

En valfri versionstagg som anger en funktionsändring för modulen.

Standardvärde: None
name
Obligatorisk
str

[Krävs] Namnet på steget.

create_pool
Obligatorisk

Anger om du vill skapa poolen innan du kör jobben.

pool_id
Obligatorisk
str

[Krävs] ID:t för poolen där jobbet körs. ID:t kan vara en befintlig pool eller en som skapas när jobbet skickas.

delete_batch_job_after_finish
Obligatorisk

Anger om jobbet ska tas bort från Batch-kontot när det är klart.

delete_batch_pool_after_finish
Obligatorisk

Anger om poolen ska tas bort när jobbet har slutförts.

is_positive_exit_code_failure
Obligatorisk

Anger om jobbet misslyckas om aktiviteten finns med en positiv kod.

vm_image_urn
Obligatorisk
str

Om create_pool är Sant och den virtuella datorn använder VirtualMachineConfiguration. Värdeformat: urn:publisher:offer:sku. Exempel: urn:MicrosoftWindowsServer:WindowsServer:2012-R2-Datacenter.

run_task_as_admin
Obligatorisk

Anger om uppgiften ska köras med administratörsbehörighet.

target_compute_nodes
Obligatorisk
int

Om create_pool är Sant anger du hur många beräkningsnoder som ska läggas till i poolen.

vm_size
Obligatorisk
str

Om create_pool är Sant anger storleken på den virtuella datorn för beräkningsnoderna.

source_directory
Obligatorisk
str

En lokal mapp som innehåller modulens binärfiler, körbara filer, sammansättningar osv.

executable
Obligatorisk
str

[Krävs] Namnet på det kommando/den körbara fil som ska köras som en del av jobbet.

arguments
Obligatorisk

Argument för kommandot/den körbara filen.

inputs
Obligatorisk

En lista över indataportbindningar. Innan jobbet körs skapas en mapp för varje indata. Filerna för varje indata kopieras från lagringen till respektive mapp på beräkningsnoden. Om indatanamnet till exempel är input1 och den relativa sökvägen i lagringen är some/relative/path/that/can/be/really/long/inputfile.txtblir filsökvägen i beräkningen: ./input1/inputfile.txt. Om indatanamnet är längre än 32 tecken trunkeras det och läggs till med ett unikt suffix, så att mappnamnet kan skapas på beräkningen.

outputs
Obligatorisk

En lista över portbindningar för utdata. Precis som indata skapas en mapp för varje utdata innan jobbet körs. Mappnamnet är samma som utdatanamnet. Antagandet är att jobbet kommer att ha utdata till den mappen.

allow_reuse
Obligatorisk

Anger om steget ska återanvända tidigare resultat när det körs igen med samma inställningar. Återanvändning är aktiverat som standard. Om steginnehållet (skript/beroenden) samt indata och parametrar förblir oförändrade återanvänds utdata från föregående körning av det här steget. När du återanvänder steget görs resultaten från den föregående körningen omedelbart tillgängliga för efterföljande steg i stället för att skicka jobbet för beräkning. Om du använder Azure Machine Learning-datauppsättningar som indata bestäms återanvändning av om datauppsättningens definition har ändrats, inte av om underliggande data har ändrats.

compute_target
Obligatorisk

[Krävs] En BatchCompute-beräkning där jobbet körs.

version
Obligatorisk
str

En valfri versionstagg som anger en funktionsändring för modulen.

Kommentarer

I följande exempel visas hur du använder AzureBatchStep i en Azure Machine Learning-pipeline.


   step = AzureBatchStep(
               name="Azure Batch Job",
               pool_id="MyPoolName", # Replace this with the pool name of your choice
               inputs=[testdata],
               outputs=[outputdata],
               executable="azurebatch.cmd",
               arguments=[testdata, outputdata],
               compute_target=batch_compute,
               source_directory=binaries_folder,
   )

Fullständigt exempel är tillgängligt från https://github.com/Azure/MachineLearningNotebooks/blob/master/how-to-use-azureml/machine-learning-pipelines/intro-to-pipelines/aml-pipelines-how-to-use-azurebatch-to-run-a-windows-executable.ipynb

Metoder

create_node

Skapa en nod från Steget AzureBatch och lägg till den i den angivna grafen.

Den här metoden är inte avsedd att användas direkt. När en pipeline instansieras med det här steget skickar Azure ML automatiskt de parametrar som krävs via den här metoden så att steget kan läggas till i ett pipelinediagram som representerar arbetsflödet.

create_node

Skapa en nod från Steget AzureBatch och lägg till den i den angivna grafen.

Den här metoden är inte avsedd att användas direkt. När en pipeline instansieras med det här steget skickar Azure ML automatiskt de parametrar som krävs via den här metoden så att steget kan läggas till i ett pipelinediagram som representerar arbetsflödet.

create_node(graph, default_datastore, context)

Parametrar

Name Description
graph
Obligatorisk

Grafobjektet som noden ska läggas till i.

default_datastore
Obligatorisk

Standarddatalager.

context
Obligatorisk
<xref:azureml.pipeline.core._GraphContext>

Grafkontexten.

Returer

Typ Description

Den skapade noden.