databricks_step Módulo
Contém a funcionalidade para criar uma etapa de pipeline do Azure ML para executar um notebook do Databricks ou um script Python no DBFS.
Classes
DatabricksStep |
Cria uma etapa do Pipeline do Azure ML para adicionar um notebook do DataBricks, script Python ou JAR como um nó. Para obter um exemplo de como usar o DatabricksStep, consulte o notebook https://aka.ms/pl-databricks. Crie uma etapa do Pipeline do Azure ML para adicionar um notebook do DataBricks, um script Python ou o JAR como um nó. Para obter um exemplo de como usar o DatabricksStep, consulte o notebook https://aka.ms/pl-databricks. :p aram python_script_name:[Obrigatório] O nome de um script Python relativo a Especifique exatamente um de Se você especificar um objeto DataReference como entrada com data_reference_name=input1 e um objeto PipelineData como saída com name=output1, as entradas e saídas serão passadas para o script como parâmetros. É assim que eles serão e você precisará analisar os argumentos em seu script para acessar os caminhos de cada entrada e saída: "-input1", "wasbs://test@storagename.blob.core.windows.net/test","-output1", "wasbs://test@storagename.blob.core.windows.net/b3e26de1-87a4-494d-a20f-1988d22b81a2/output1" Além disso, os seguintes parâmetros estarão disponíveis no script:
Quando você estiver executando um script Python de seu computador local no Databricks usando parâmetros |