databricks_step Modul
Innehåller funktioner för att skapa ett Azure ML-pipelinesteg för att köra en Databricks-anteckningsbok eller Python-skript på DBFS.
Klasser
DatabricksStep |
Skapar ett Azure ML Pipeline-steg för att lägga till en DataBricks-anteckningsbok, Python-skript eller JAR som en nod. Ett exempel på hur du använder DatabricksStep finns i notebook-filen https://aka.ms/pl-databricks. Skapa ett Azure ML Pipeline-steg för att lägga till en DataBricks-anteckningsbok, Python-skript eller JAR som en nod. Ett exempel på hur du använder DatabricksStep finns i notebook-filen https://aka.ms/pl-databricks. :p aram python_script_name:[Krävs] Namnet på ett Python-skript i förhållande till Ange exakt en av Om du anger ett DataReference-objekt som indata med data_reference_name=input1 och ett PipelineData-objekt som utdata med name=output1 skickas indata och utdata till skriptet som parametrar. Så här ser de ut och du måste parsa argumenten i skriptet för att komma åt sökvägarna för varje indata och utdata: "-input1","wasbs://test@storagename.blob.core.windows.net/test","-output1", "wasbs://test@storagename.blob.core.windows.net/b3e26de1-87a4-494d-a20f-1988d22b81a2/output1" Dessutom är följande parametrar tillgängliga i skriptet:
När du kör ett Python-skript från din lokala dator på Databricks med hjälp av DatabricksStep-parametrar och |