AzureBatchStep Classe
Cria uma etapa do Pipeline do Azure ML para enviar trabalhos ao Lote do Azure.
Observação: esta etapa não dá suporte ao upload/download de diretórios e seu conteúdo.
Para obter um exemplo de como usar o AzureBatchStep, consulte o bloco de anotações https://aka.ms/pl-azbatch.
Crie uma etapa do Pipeline do Azure ML para enviar trabalhos ao Lote do Azure.
Construtor
AzureBatchStep(name, create_pool=False, pool_id=None, delete_batch_job_after_finish=True, delete_batch_pool_after_finish=False, is_positive_exit_code_failure=True, vm_image_urn='urn:MicrosoftWindowsServer:WindowsServer:2012-R2-Datacenter', run_task_as_admin=False, target_compute_nodes=1, vm_size='standard_d1_v2', source_directory=None, executable=None, arguments=None, inputs=None, outputs=None, allow_reuse=True, compute_target=None, version=None)
Parâmetros
| Nome | Description |
|---|---|
|
name
Obrigatório
|
[Obrigatório] O nome da etapa. |
|
create_pool
|
Indica se o pool deve ser criado antes de executar os trabalhos. Valor padrão: False
|
|
pool_id
|
[Obrigatório] A ID do pool em que o trabalho é executado. A ID pode ser um pool existente ou um que será criado quando o trabalho for enviado. Valor padrão: None
|
|
delete_batch_job_after_finish
|
Indica se o trabalho deve ser excluído da conta do Lote após sua conclusão. Valor padrão: True
|
|
delete_batch_pool_after_finish
|
Indica se o pool deve ser excluído após a conclusão do trabalho. Valor padrão: False
|
|
is_positive_exit_code_failure
|
Indica se o trabalho falhará se a tarefa existir com um código positivo. Valor padrão: True
|
|
vm_image_urn
|
Se Valor padrão: urn:MicrosoftWindowsServer:WindowsServer:2012-R2-Datacenter
|
|
run_task_as_admin
|
Indica se a tarefa deve ser executada com privilégios de administrador. Valor padrão: False
|
|
target_compute_nodes
|
Se Valor padrão: 1
|
|
vm_size
|
Se Valor padrão: standard_d1_v2
|
|
source_directory
|
Uma pasta local que contém os binários do módulo, executáveis, assemblies etc. Valor padrão: None
|
|
executable
|
[Obrigatório] O nome do comando/executável que será executado como parte do trabalho. Valor padrão: None
|
|
arguments
|
Argumentos para o comando/executável. Valor padrão: None
|
|
inputs
|
Uma lista de associações de porta de entrada. Antes da execução do trabalho, uma pasta é criada para cada entrada. Os arquivos de cada entrada serão copiados do armazenamento para a respectiva pasta no nó de computação. Por exemplo, se o nome de entrada for input1 e o caminho relativo no armazenamento for algum/relativo/caminho/que/pode/ser/realmente/longo/inputfile.txt, o caminho do arquivo na computação será: ./input1/inputfile.txt. Quando o nome de entrada tiver mais de 32 caracteres, ele será truncado e acrescentado com um sufixo exclusivo para que o nome da pasta possa ser criado com êxito no destino de computação. Valor padrão: None
|
|
outputs
|
Uma lista de associações de porta de saída. Semelhante às entradas, antes da execução do trabalho, uma pasta é criada para cada saída. O nome da pasta será o mesmo que o nome de saída. A suposição é que o trabalho colocará a saída nessa pasta. Valor padrão: None
|
|
allow_reuse
|
Indica se a etapa deve reutilizar os resultados anteriores ao executar novamente com as mesmas configurações. A reutilização é habilitada por padrão. Se o conteúdo da etapa (scripts/dependências), bem como entradas e parâmetros permanecerem inalterados, a saída da execução anterior desta etapa será reutilizado. Ao reutilizar a etapa, em vez de enviar o trabalho para computação, os resultados da execução anterior são imediatamente disponibilizados para quaisquer etapas subsequentes. Se você usar conjuntos de dados do Azure Machine Learning como entradas, a reutilização será determinada se a definição do conjunto de dados foi alterada, não se os dados subjacentes foram alterados. Valor padrão: True
|
|
compute_target
|
[Obrigatório] Uma computação BatchCompute em que o trabalho é executado. Valor padrão: None
|
|
version
|
Uma marca de versão opcional para indicar uma alteração na funcionalidade do módulo. Valor padrão: None
|
|
name
Obrigatório
|
[Obrigatório] O nome da etapa. |
|
create_pool
Obrigatório
|
Indica se o pool deve ser criado antes de executar os trabalhos. |
|
pool_id
Obrigatório
|
[Obrigatório] A ID do pool em que o trabalho é executado. A ID pode ser um pool existente ou um que será criado quando o trabalho for enviado. |
|
delete_batch_job_after_finish
Obrigatório
|
Indica se o trabalho deve ser excluído da conta do Lote após sua conclusão. |
|
delete_batch_pool_after_finish
Obrigatório
|
Indica se o pool deve ser excluído após a conclusão do trabalho. |
|
is_positive_exit_code_failure
Obrigatório
|
Indica se o trabalho falhará se a tarefa existir com um código positivo. |
|
vm_image_urn
Obrigatório
|
Se |
|
run_task_as_admin
Obrigatório
|
Indica se a tarefa deve ser executada com privilégios de administrador. |
|
target_compute_nodes
Obrigatório
|
Se |
|
vm_size
Obrigatório
|
Se |
|
source_directory
Obrigatório
|
Uma pasta local que contém os binários do módulo, executáveis, assemblies etc. |
|
executable
Obrigatório
|
[Obrigatório] O nome do comando/executável que será executado como parte do trabalho. |
|
arguments
Obrigatório
|
Argumentos para o comando/executável. |
|
inputs
Obrigatório
|
Uma lista de associações de porta de entrada. Antes da execução do trabalho, uma pasta é criada para cada entrada. Os arquivos de cada entrada serão copiados do armazenamento para a respectiva pasta no nó de computação. Por exemplo, se o nome de entrada for input1 e o caminho relativo no armazenamento for algum/relativo/caminho/que/pode/ser/realmente/longo/inputfile.txt, o caminho do arquivo na computação será: ./input1/inputfile.txt. Caso o nome de entrada tenha mais de 32 caracteres, ele será truncado e acrescentado com um sufixo exclusivo, portanto, o nome da pasta poderá ser criado com êxito na computação. |
|
outputs
Obrigatório
|
Uma lista de associações de porta de saída. Semelhante às entradas, antes da execução do trabalho, uma pasta é criada para cada saída. O nome da pasta será o mesmo que o nome de saída. A suposição é que o trabalho terá a saída nessa pasta. |
|
allow_reuse
Obrigatório
|
Indica se a etapa deve reutilizar os resultados anteriores ao executar novamente com as mesmas configurações. A reutilização é habilitada por padrão. Se o conteúdo da etapa (scripts/dependências), bem como entradas e parâmetros permanecerem inalterados, a saída da execução anterior desta etapa será reutilizado. Ao reutilizar a etapa, em vez de enviar o trabalho para computação, os resultados da execução anterior são imediatamente disponibilizados para quaisquer etapas subsequentes. Se você usar conjuntos de dados do Azure Machine Learning como entradas, a reutilização será determinada se a definição do conjunto de dados foi alterada, não se os dados subjacentes foram alterados. |
|
compute_target
Obrigatório
|
[Obrigatório] Uma computação BatchCompute em que o trabalho é executado. |
|
version
Obrigatório
|
Uma marca de versão opcional para indicar uma alteração na funcionalidade do módulo. |
Comentários
O exemplo a seguir mostra como usar o AzureBatchStep em um Pipeline do Azure Machine Learning.
step = AzureBatchStep(
name="Azure Batch Job",
pool_id="MyPoolName", # Replace this with the pool name of your choice
inputs=[testdata],
outputs=[outputdata],
executable="azurebatch.cmd",
arguments=[testdata, outputdata],
compute_target=batch_compute,
source_directory=binaries_folder,
)
O exemplo completo está disponível em https://github.com/Azure/MachineLearningNotebooks/blob/master/how-to-use-azureml/machine-learning-pipelines/intro-to-pipelines/aml-pipelines-how-to-use-azurebatch-to-run-a-windows-executable.ipynb
Métodos
| create_node |
Crie um nó a partir da etapa do AzureBatch e adicione-o ao grafo especificado. Esse método não se destina a ser usado diretamente. Quando um pipeline é instanciado com essa etapa, o Azure ML passa automaticamente os parâmetros necessários por meio desse método para que essa etapa possa ser adicionada a um grafo de pipeline que representa o fluxo de trabalho. |
create_node
Crie um nó a partir da etapa do AzureBatch e adicione-o ao grafo especificado.
Esse método não se destina a ser usado diretamente. Quando um pipeline é instanciado com essa etapa, o Azure ML passa automaticamente os parâmetros necessários por meio desse método para que essa etapa possa ser adicionada a um grafo de pipeline que representa o fluxo de trabalho.
create_node(graph, default_datastore, context)
Parâmetros
| Nome | Description |
|---|---|
|
graph
Obrigatório
|
O objeto de grafo ao qual adicionar o nó. |
|
default_datastore
Obrigatório
|
O armazenamento de dados padrão. |
|
context
Obrigatório
|
<xref:azureml.pipeline.core._GraphContext>
O contexto do grafo. |
Retornos
| Tipo | Description |
|---|---|
|
O nó criado. |