DatabricksStep Classe
Cria uma etapa do Pipeline do Azure ML para adicionar um notebook do DataBricks, script Python ou JAR como um nó.
Para obter um exemplo de como usar o DatabricksStep, consulte o notebook https://aka.ms/pl-databricks.
Crie uma etapa do Pipeline do Azure ML para adicionar um notebook do DataBricks, um script Python ou o JAR como um nó.
Para obter um exemplo de como usar o DatabricksStep, consulte o notebook https://aka.ms/pl-databricks.
:p aram python_script_name:[Obrigatório] O nome de um script Python relativo a source_directory.
Se o script receber entradas e saídas, elas serão passadas para o script como parâmetros.
Se python_script_name for especificado, também source_directory deve ser.
Especifique exatamente um de notebook_path, python_script_pathou python_script_namemain_class_name.
Se você especificar um objeto DataReference como entrada com data_reference_name=input1 e um objeto PipelineData como saída com name=output1, as entradas e saídas serão passadas para o script como parâmetros. É assim que eles serão e você precisará analisar os argumentos em seu script para acessar os caminhos de cada entrada e saída: "-input1", "wasbs://test@storagename.blob.core.windows.net/test","-output1", "wasbs://test@storagename.blob.core.windows.net/b3e26de1-87a4-494d-a20f-1988d22b81a2/output1"
Além disso, os seguintes parâmetros estarão disponíveis no script:
- AZUREML_RUN_TOKEN: o token AML para autenticação com o Azure Machine Learning.
- AZUREML_RUN_TOKEN_EXPIRY: a hora de expiração do token AML.
- AZUREML_RUN_ID: ID de execução do Azure Machine Learning para esta execução.
- AZUREML_ARM_SUBSCRIPTION: assinatura do Azure para seu workspace AML.
- AZUREML_ARM_RESOURCEGROUP: grupo de recursos do Azure para seu workspace do Azure Machine Learning.
- AZUREML_ARM_WORKSPACE_NAME: nome do workspace do Azure Machine Learning.
- AZUREML_ARM_PROJECT_NAME: nome do experimento do Azure Machine Learning.
- AZUREML_SERVICE_ENDPOINT: a URL do ponto de extremidade para serviços AML.
- AZUREML_WORKSPACE_ID: ID do workspace do Azure Machine Learning.
- AZUREML_EXPERIMENT_ID: ID do experimento do Azure Machine Learning.
- AZUREML_SCRIPT_DIRECTORY_NAME: caminho de diretório no DBFS em que source_directory foi copiado.
(This parameter is only populated when `python_script_name` is used. See more details below.)
Quando você estiver executando um script Python de seu computador local no Databricks usando parâmetros source_directory DatabricksStep e python_script_nameo source_directory for copiado para o DBFS e o caminho do diretório no DBFS será passado como um parâmetro para o script quando ele iniciar a execução.
Esse parâmetro é rotulado como –AZUREML_SCRIPT_DIRECTORY_NAME. Você precisa prefixá-lo com a cadeia de caracteres "dbfs:/" ou "/dbfs/" para acessar o diretório no DBFS.
Construtor
DatabricksStep(name, inputs=None, outputs=None, existing_cluster_id=None, spark_version=None, node_type=None, instance_pool_id=None, num_workers=None, min_workers=None, max_workers=None, spark_env_variables=None, spark_conf=None, init_scripts=None, cluster_log_dbfs_path=None, notebook_path=None, notebook_params=None, python_script_path=None, python_script_params=None, main_class_name=None, jar_params=None, python_script_name=None, source_directory=None, hash_paths=None, run_name=None, timeout_seconds=None, runconfig=None, maven_libraries=None, pypi_libraries=None, egg_libraries=None, jar_libraries=None, rcran_libraries=None, compute_target=None, allow_reuse=True, version=None, permit_cluster_restart=None)
Parâmetros
| Nome | Description |
|---|---|
|
name
Obrigatório
|
[Obrigatório] O nome da etapa. |
|
inputs
|
Uma lista de conexões de entrada para os dados consumidos por esta etapa. Busque isso dentro do notebook usando dbutils.widgets.get("input_name"). Pode ser DataReference ou PipelineData. DataReference representa uma parte existente de dados em um armazenamento de dados. Essencialmente, esse é um caminho em um armazenamento de dados. O DatabricksStep dá suporte a armazenamentos de dados que encapsulam DBFS, blob do Azure ou ADLS v1. PipelineData representa dados intermediários produzidos por outra etapa em um pipeline. Valor padrão: None
|
|
outputs
|
Uma lista de definições de porta de saída para saídas produzidas por esta etapa. Busque isso dentro do notebook usando dbutils.widgets.get("output_name"). Deve ser PipelineData. Valor padrão: None
|
|
existing_cluster_id
|
Uma ID de cluster de um cluster interativo existente no workspace do Databricks. Se você estiver passando esse parâmetro, não poderá passar nenhum dos seguintes parâmetros usados para criar um novo cluster:
Observação: para criar um novo cluster de trabalho, você precisará passar os parâmetros acima. Você pode passar esses parâmetros diretamente ou passá-los como parte do objeto RunConfiguration usando o parâmetro runconfig. Passar esses parâmetros diretamente e por meio de RunConfiguration resulta em um erro. Valor padrão: None
|
|
spark_version
|
A versão do Spark para o cluster de execução do Databricks, por exemplo: "10.4.x-scala2.12".
Para obter mais informações, consulte a descrição do Valor padrão: None
|
|
node_type
|
[Obrigatório] Os tipos de nó de VM do Azure para o cluster de execução do Databricks, por exemplo: "Standard_D3_v2". Especifique Valor padrão: None
|
|
instance_pool_id
|
[Obrigatório] A ID do pool de instância à qual o cluster precisa ser anexado.
Especifique Valor padrão: None
|
|
num_workers
|
[Obrigatório] O número estático de trabalhos para o cluster de execução do Databricks.
Você deve especificar ou Valor padrão: None
|
|
min_workers
|
[Obrigatório] O número mínimo de trabalhos a serem usados para dimensionar automaticamente o cluster de execução do Databricks.
Você deve especificar ou Valor padrão: None
|
|
max_workers
|
[Obrigatório] O número máximo de trabalhos a serem usados para dimensionar automaticamente o cluster de execução do Databricks.
Você deve especificar ou Valor padrão: None
|
|
spark_env_variables
|
As variáveis de ambiente do Spark para o cluster de execução do Databricks.
Para obter mais informações, consulte a descrição do Valor padrão: None
|
|
spark_conf
|
A configuração do Spark para o cluster de execução do Databricks.
Para obter mais informações, consulte a descrição do Valor padrão: None
|
|
init_scripts
|
[str]
Preterido. O Databricks anunciou que o script de inicialização armazenado no DBFS interromperá o trabalho após 1º de dezembro de 2023. Para atenuar o problema, use scripts de inicialização globais no databricks após https://learn.microsoft.com/azure/databricks/init-scripts/global 2) comente a linha de init_scripts na etapa do databricks do AzureML. Valor padrão: None
|
|
cluster_log_dbfs_path
|
Os caminhos DBFS em que os logs de clusters devem ser entregues. Valor padrão: None
|
|
notebook_path
|
[Obrigatório] O caminho para o notebook na instância do Databricks. Essa classe permite quatro maneiras de especificar o código a ser executado no cluster do Databricks.
Especifique exatamente um de Valor padrão: None
|
|
notebook_params
|
Um dicionário de parâmetros a serem passados para o notebook.
Valor padrão: None
|
|
python_script_path
|
[Obrigatório] O caminho para o script python no DBFS.
Especifique exatamente um de Valor padrão: None
|
|
python_script_params
|
Parâmetros para o script Python. Valor padrão: None
|
|
main_class_name
|
[Obrigatório] O nome do ponto de entrada em um módulo JAR.
Especifique exatamente um de Valor padrão: None
|
|
jar_params
|
Parâmetros para o módulo JAR. Valor padrão: None
|
|
python_script_name
|
[Obrigatório] O nome de um script Python em relação a Especifique exatamente um de Se você especificar um objeto DataReference como entrada com data_reference_name=input1 e um objeto PipelineData como saída com name=output1, as entradas e saídas serão passadas para o script como parâmetros. É assim que eles serão e você precisará analisar os argumentos em seu script para acessar os caminhos de cada entrada e saída: "-input1", "wasbs://test@storagename.blob.core.windows.net/test","-output1", "wasbs://test@storagename.blob.core.windows.net/b3e26de1-87a4-494d-a20f-1988d22b81a2/output1" Além disso, os seguintes parâmetros estarão disponíveis no script:
Quando você estiver executando um script Python de seu computador local no Databricks usando parâmetros Valor padrão: None
|
|
source_directory
|
A pasta que contém o script e outros arquivos.
Se Valor padrão: None
|
|
hash_paths
|
[str]
PRETERIDO: não é mais necessário. Uma lista de caminhos para o hash ao verificar se há alterações no conteúdo da etapa. Se não houver alterações detectadas, o pipeline reutilizará o conteúdo da etapa de uma execução anterior. Por padrão, o conteúdo é Valor padrão: None
|
|
run_name
|
O nome no Databricks para esta execução. Valor padrão: None
|
|
timeout_seconds
|
O tempo limite para a execução do Databricks. Valor padrão: None
|
|
runconfig
|
A configuração de execução a ser usada. Observação: você pode passar quantas bibliotecas quiser como dependências para seu trabalho usando os seguintes parâmetros: Valor padrão: None
|
|
maven_libraries
|
Bibliotecas maven a serem usadas para a execução do Databricks. Valor padrão: None
|
|
pypi_libraries
|
Bibliotecas de PyPi a serem usadas para a execução do Databricks. Valor padrão: None
|
|
egg_libraries
|
Bibliotecas de ovos a serem usadas para a execução do Databricks. Valor padrão: None
|
|
jar_libraries
|
Bibliotecas jar a serem usadas para a execução do Databricks. Valor padrão: None
|
|
rcran_libraries
|
Bibliotecas RCran a serem usadas para a execução do Databricks. Valor padrão: None
|
|
compute_target
|
[Obrigatório] Uma computação do Azure Databricks. Antes de usar o DatabricksStep para executar seus scripts ou notebooks em um workspace do Azure Databricks, você precisa adicionar o workspace do Azure Databricks como um destino de computação ao workspace do Azure Machine Learning. Valor padrão: None
|
|
allow_reuse
|
Indica se a etapa deve reutilizar os resultados anteriores ao executar novamente com as mesmas configurações. A reutilização é habilitada por padrão. Se o conteúdo da etapa (scripts/dependências), bem como entradas e parâmetros permanecerem inalterados, a saída da execução anterior desta etapa será reutilizado. Ao reutilizar a etapa, em vez de enviar o trabalho para computação, os resultados da execução anterior são imediatamente disponibilizados para quaisquer etapas subsequentes. Se você usar conjuntos de dados do Azure Machine Learning como entradas, a reutilização será determinada se a definição do conjunto de dados foi alterada, não se os dados subjacentes foram alterados. Valor padrão: True
|
|
version
|
Uma marca de versão opcional para indicar uma alteração na funcionalidade da etapa. Valor padrão: None
|
|
permit_cluster_restart
|
se existing_cluster_id for especificado, esse parâmetro informará se o cluster pode ser reiniciado em nome do usuário. Valor padrão: None
|
|
name
Obrigatório
|
[Obrigatório] O nome da etapa. |
|
inputs
Obrigatório
|
Lista de conexões de entrada para dados consumidos por esta etapa. Busque isso dentro do notebook usando dbutils.widgets.get("input_name"). Pode ser DataReference ou PipelineData. DataReference representa uma parte existente de dados em um armazenamento de dados. Essencialmente, esse é um caminho em um armazenamento de dados. O DatabricksStep dá suporte a armazenamentos de dados que encapsulam DBFS, blob do Azure ou ADLS v1. PipelineData representa dados intermediários produzidos por outra etapa em um pipeline. |
|
outputs
Obrigatório
|
list[Union[OutputPortBinding, <xref:azureml.pipeline.core.pipeline_output_dataset.PipelineOutputDataset>, PipelineData]]
Uma lista de definições de porta de saída para saídas produzidas por esta etapa. Busque isso dentro do notebook usando dbutils.widgets.get("output_name"). Deve ser PipelineData. |
|
existing_cluster_id
Obrigatório
|
Uma ID de cluster de um cluster interativo existente no workspace do Databricks. Se você estiver passando esse parâmetro, não poderá passar nenhum dos seguintes parâmetros usados para criar um novo cluster:
Observação: para criar um novo cluster de trabalho, você precisará passar os parâmetros acima. Você pode passar esses parâmetros diretamente ou passá-los como parte do objeto RunConfiguration usando o parâmetro runconfig. Passar esses parâmetros diretamente e por meio de RunConfiguration resulta em um erro. |
|
spark_version
Obrigatório
|
A versão do Spark para o cluster de execução do Databricks, por exemplo: "10.4.x-scala2.12".
Para obter mais informações, consulte a descrição do |
|
node_type
Obrigatório
|
[Obrigatório] Os tipos de nó de VM do Azure para o cluster de execução do Databricks, por exemplo: "Standard_D3_v2". Especifique |
|
instance_pool_id
Obrigatório
|
[Obrigatório] A ID do pool de instância à qual o cluster precisa ser anexado.
Especifique |
|
num_workers
Obrigatório
|
[Obrigatório] O número estático de trabalhos para o cluster de execução do Databricks.
Você deve especificar ou Para obter mais informações, consulte a descrição do |
|
min_workers
Obrigatório
|
[Obrigatório] O número mínimo de trabalhos a serem usados para dimensionar automaticamente o cluster de execução do Databricks.
Você deve especificar ou Para obter mais informações, consulte a descrição do |
|
max_workers
Obrigatório
|
[Obrigatório] O número máximo de trabalhos a serem usados para dimensionar automaticamente o cluster de execução do Databricks.
Você deve especificar ou Para obter mais informações, consulte a descrição do |
|
spark_env_variables
Obrigatório
|
As variáveis de ambiente do Spark para o cluster de execução do Databricks.
Para obter mais informações, consulte a descrição do |
|
spark_conf
Obrigatório
|
A configuração do Spark para o cluster de execução do Databricks.
Para obter mais informações, consulte a descrição do |
|
init_scripts
Obrigatório
|
[str]
Preterido. O Databricks anunciou que o script de inicialização armazenado no DBFS interromperá o trabalho após 1º de dezembro de 2023. Para atenuar o problema, use scripts de inicialização globais no databricks após https://learn.microsoft.com/azure/databricks/init-scripts/global 2) comente a linha de init_scripts na etapa do databricks do AzureML. |
|
cluster_log_dbfs_path
Obrigatório
|
Os caminhos DBFS em que os logs de clusters devem ser entregues. |
|
notebook_path
Obrigatório
|
[Obrigatório] O caminho para o notebook na instância do Databricks. Essa classe permite quatro maneiras de especificar o código a ser executado no cluster do Databricks.
Especifique exatamente um de |
|
notebook_params
Obrigatório
|
Um dicionário de parâmetros a serem passados para o notebook.
|
|
python_script_path
Obrigatório
|
[Obrigatório] O caminho para o script python no DBFS.
Especifique exatamente um de |
|
python_script_params
Obrigatório
|
Parâmetros para o script Python. |
|
main_class_name
Obrigatório
|
[Obrigatório] O nome do ponto de entrada em um módulo JAR.
Especifique exatamente um de |
|
jar_params
Obrigatório
|
Parâmetros para o módulo JAR. |
|
source_directory
Obrigatório
|
A pasta que contém o script e outros arquivos.
Se |
|
hash_paths
Obrigatório
|
[str]
PRETERIDO: não é mais necessário. Uma lista de caminhos para o hash ao verificar se há alterações no conteúdo da etapa. Se não houver alterações detectadas, o pipeline reutilizará o conteúdo da etapa de uma execução anterior. Por padrão, o conteúdo é |
|
run_name
Obrigatório
|
O nome no Databricks para esta execução. |
|
timeout_seconds
Obrigatório
|
O tempo limite para a execução do Databricks. |
|
runconfig
Obrigatório
|
A configuração de execução a ser usada. Observação: você pode passar quantas bibliotecas quiser como dependências para seu trabalho usando os seguintes parâmetros: |
|
maven_libraries
Obrigatório
|
list[<xref:azureml.core.runconfig.MavenLibrary>]
Bibliotecas maven a serem usadas para a execução do Databricks.
Para obter mais informações sobre a especificação de bibliotecas Maven, consulte |
|
pypi_libraries
Obrigatório
|
list[<xref:azureml.core.runconfig.PyPiLibrary>]
Bibliotecas de PyPi a serem usadas para a execução do Databricks.
Para obter mais informações sobre a especificação de bibliotecas PyPi, consulte |
|
egg_libraries
Obrigatório
|
list[<xref:azureml.core.runconfig.EggLibrary>]
Bibliotecas de ovos a serem usadas para a execução do Databricks.
Para obter mais informações sobre a especificação das bibliotecas egg, consulte |
|
jar_libraries
Obrigatório
|
list[<xref:azureml.core.runconfig.JarLibrary>]
Bibliotecas jar a serem usadas para a execução do Databricks.
Para obter mais informações sobre a especificação das bibliotecas Jar, consulte |
|
rcran_libraries
Obrigatório
|
list[<xref:azureml.core.runconfig.RCranLibrary>]
Bibliotecas RCran a serem usadas para a execução do Databricks.
Para obter mais informações sobre a especificação de bibliotecas RCran, consulte |
|
compute_target
Obrigatório
|
[Obrigatório] Computação do Azure Databricks. Antes de usar o DatabricksStep para executar seus scripts ou notebooks em um workspace do Azure Databricks, você precisa adicionar o workspace do Azure Databricks como um destino de computação ao workspace do Azure Machine Learning. |
|
allow_reuse
Obrigatório
|
Indica se a etapa deve reutilizar os resultados anteriores ao executar novamente com as mesmas configurações. A reutilização é habilitada por padrão. Se o conteúdo da etapa (scripts/dependências), bem como entradas e parâmetros permanecerem inalterados, a saída da execução anterior desta etapa será reutilizado. Ao reutilizar a etapa, em vez de enviar o trabalho para computação, os resultados da execução anterior são imediatamente disponibilizados para quaisquer etapas subsequentes. Se você usar conjuntos de dados do Azure Machine Learning como entradas, a reutilização será determinada se a definição do conjunto de dados foi alterada, não se os dados subjacentes foram alterados. |
|
version
Obrigatório
|
Uma marca de versão opcional para indicar uma alteração na funcionalidade da etapa. |
|
permit_cluster_restart
Obrigatório
|
se existing_cluster_id for especificado, esse parâmetro informará se o cluster pode ser reiniciado em nome do usuário. |
Métodos
| create_node |
Crie um nó a partir da etapa do Databricks e adicione-o ao grafo especificado. Esse método não se destina a ser usado diretamente. Quando um pipeline é instanciado com essa etapa, o Azure ML passa automaticamente os parâmetros necessários por meio desse método para que essa etapa possa ser adicionada a um grafo de pipeline que representa o fluxo de trabalho. |
create_node
Crie um nó a partir da etapa do Databricks e adicione-o ao grafo especificado.
Esse método não se destina a ser usado diretamente. Quando um pipeline é instanciado com essa etapa, o Azure ML passa automaticamente os parâmetros necessários por meio desse método para que essa etapa possa ser adicionada a um grafo de pipeline que representa o fluxo de trabalho.
create_node(graph, default_datastore, context)
Parâmetros
| Nome | Description |
|---|---|
|
graph
Obrigatório
|
O objeto de grafo ao qual adicionar o nó. |
|
default_datastore
Obrigatório
|
O armazenamento de dados padrão. |
|
context
Obrigatório
|
<xref:azureml.pipeline.core._GraphContext>
O contexto do grafo. |
Retornos
| Tipo | Description |
|---|---|
|
O nó criado. |