DatabricksStep Klass

Skapar ett Azure ML Pipeline-steg för att lägga till en DataBricks-notebook-fil, Python-skript eller JAR som en nod.

Ett exempel på hur du använder DatabricksStep finns i notebook-filen https://aka.ms/pl-databricks.

Skapa ett Azure ML Pipeline-steg för att lägga till en DataBricks-notebook-fil, Python-skript eller JAR som en nod.

Ett exempel på hur du använder DatabricksStep finns i notebook-filen https://aka.ms/pl-databricks.

:p aram python_script_name:[Required] Namnet på ett Python-skript i förhållande till source_directory. Om skriptet tar indata och utdata skickas de till skriptet som parametrar. Om python_script_name anges måste det source_directory också vara det.

Ange exakt en av notebook_path, python_script_path, python_script_nameeller main_class_name.

Om du anger ett DataReference-objekt som indata med data_reference_name=input1 och ett PipelineData-objekt som utdata med namn=output1, skickas indata och utdata till skriptet som parametrar. Så här ser de ut och du måste parsa argumenten i skriptet för att komma åt sökvägarna för varje indata och utdata: "-input1","wasbs://test@storagename.blob.core.windows.net/test","-output1", "wasbs://test@storagename.blob.core.windows.net/b3e26de1-87a4-494d-a20f-1988d22b81a2/output1"

Dessutom är följande parametrar tillgängliga i skriptet:

  • AZUREML_RUN_TOKEN: AML-token för autentisering med Azure Machine Learning.
  • AZUREML_RUN_TOKEN_EXPIRY: Förfallotid för AML-token.
  • AZUREML_RUN_ID: Kör-ID för Azure Machine Learning för den här körningen.
  • AZUREML_ARM_SUBSCRIPTION: Azure-prenumeration för din AML-arbetsyta.
  • AZUREML_ARM_RESOURCEGROUP: Azure-resursgrupp för din Azure Machine Learning-arbetsyta.
  • AZUREML_ARM_WORKSPACE_NAME: Namnet på din Azure Machine Learning-arbetsyta.
  • AZUREML_ARM_PROJECT_NAME: Namnet på ditt Azure Machine Learning-experiment.
  • AZUREML_SERVICE_ENDPOINT: Slutpunkts-URL för AML-tjänster.
  • AZUREML_WORKSPACE_ID: ID för din Azure Machine Learning-arbetsyta.
  • AZUREML_EXPERIMENT_ID: ID för ditt Azure Machine Learning-experiment.
  • AZUREML_SCRIPT_DIRECTORY_NAME: Katalogsökväg i DBFS där source_directory har kopierats.
  (This parameter is only populated when `python_script_name` is used.  See more details below.)

När du kör ett Python-skript från den lokala datorn på Databricks med hjälp av DatabricksStep-parametrar och source_directorypython_script_namekopieras source_directory till DBFS och katalogsökvägen i DBFS skickas som en parameter till skriptet när körningen påbörjas. Den här parametern är märkt med –AZUREML_SCRIPT_DIRECTORY_NAME. Du måste prefixet med strängen "dbfs:/" eller "/dbfs/" för att komma åt katalogen i DBFS.

Arv
azureml.pipeline.core._databricks_step_base._DatabricksStepBase
DatabricksStep

Konstruktor

DatabricksStep(name, inputs=None, outputs=None, existing_cluster_id=None, spark_version=None, node_type=None, instance_pool_id=None, num_workers=None, min_workers=None, max_workers=None, spark_env_variables=None, spark_conf=None, init_scripts=None, cluster_log_dbfs_path=None, notebook_path=None, notebook_params=None, python_script_path=None, python_script_params=None, main_class_name=None, jar_params=None, python_script_name=None, source_directory=None, hash_paths=None, run_name=None, timeout_seconds=None, runconfig=None, maven_libraries=None, pypi_libraries=None, egg_libraries=None, jar_libraries=None, rcran_libraries=None, compute_target=None, allow_reuse=True, version=None, permit_cluster_restart=None)

Parametrar

name
str
Obligatorisk

[Krävs] Namnet på steget.

inputs
list[Union[InputPortBinding, DataReference, PortDataReference, PipelineData]]
standardvärde: None

En lista över indataanslutningar för data som förbrukas av det här steget. Hämta detta i notebook-filen med dbutils.widgets.get("input_name"). Kan vara DataReference eller PipelineData. DataReference representerar en befintlig datamängd i ett datalager. Det här är i princip en sökväg i ett datalager. DatabricksStep stöder datalager som kapslar in DBFS, Azure Blob eller ADLS v1. PipelineData representerar mellanliggande data som produceras av ett annat steg i en pipeline.

outputs
list[Union[OutputPortBinding, PipelineOutputAbstractDataset, PipelineData]]
standardvärde: None

En lista över portdefinitioner för utdata som genereras av det här steget. Hämta detta i notebook-filen med dbutils.widgets.get("output_name"). Bör vara PipelineData.

existing_cluster_id
str
standardvärde: None

Ett kluster-ID för ett befintligt interaktivt kluster på Databricks-arbetsytan. Om du skickar den här parametern kan du inte skicka någon av följande parametrar som används för att skapa ett nytt kluster:

  • spark_version
  • node_type
  • instance_pool_id
  • num_workers
  • min_workers
  • max_workers
  • spark_env_variables
  • spark_conf

Obs! Om du vill skapa ett nytt jobbkluster måste du skicka ovanstående parametrar. Du kan skicka dessa parametrar direkt eller skicka dem som en del av RunConfiguration-objektet med hjälp av parametern runconfig. Om du skickar dessa parametrar direkt och via RunConfiguration uppstår ett fel.

spark_version
str
standardvärde: None

Versionen av Spark för Databricks kör klustret, till exempel: "10.4.x-scala2.12". Mer information finns i beskrivningen för parametern existing_cluster_id .

node_type
str
standardvärde: None

[Krävs] Nodtyperna för virtuella Azure-datorer för Databricks-körningsklustret, till exempel: "Standard_D3_v2". Ange antingen node_type eller instance_pool_id. Mer information finns i beskrivningen för parametern existing_cluster_id .

instance_pool_id
str
standardvärde: None

[Krävs] Det instanspools-ID som klustret måste kopplas till. Ange antingen node_type eller instance_pool_id. Mer information finns i beskrivningen för parametern existing_cluster_id .

num_workers
int
standardvärde: None

[Krävs] Det statiska antalet arbetare för Databricks-körningsklustret. Du måste ange antingen num_workers eller både min_workers och max_workers. Mer information finns i beskrivningen för parametern existing_cluster_id .

min_workers
int
standardvärde: None

[Krävs] Minsta antal arbetare som ska användas för automatisk skalning av Databricks-körningsklustret. Du måste ange antingen num_workers eller både min_workers och max_workers. Mer information finns i beskrivningen för parametern existing_cluster_id .

max_workers
int
standardvärde: None

[Krävs] Det maximala antalet arbetare som ska användas för automatisk skalning av Databricks-körningsklustret. Du måste ange antingen num_workers eller både min_workers och max_workers. Mer information finns i beskrivningen för parametern existing_cluster_id .

spark_env_variables
dict
standardvärde: None

Spark-miljövariablerna för Databricks kör klustret. Mer information finns i beskrivningen för parametern existing_cluster_id .

spark_conf
dict
standardvärde: None

Spark-konfigurationen för Databricks-körningsklustret. Mer information finns i beskrivningen för parametern existing_cluster_id .

init_scripts
[str]
standardvärde: None

Inaktuellt. Databricks meddelade att init-skriptet som lagras i DBFS kommer att sluta fungera efter 1 dec 2023. Du kan åtgärda problemet genom att 1) använda globala init-skript i databricks efter https://learn.microsoft.com/azure/databricks/init-scripts/global 2) kommentera ut raden med init_scripts i azureML-databricks-steget.

cluster_log_dbfs_path
str
standardvärde: None

DBFS-sökvägarna där klusterloggar ska levereras.

notebook_path
str
standardvärde: None

[Krävs] Sökvägen till notebook-filen i Databricks-instansen. Den här klassen tillåter fyra sätt att ange att koden ska köras på Databricks-klustret.

  1. Om du vill köra en notebook-fil som finns på Databricks-arbetsytan använder du: notebook_path=notebook_path, notebook_params={'myparam': 'testparam'}

  2. Om du vill köra ett Python-skript som finns i DBFS använder du: python_script_path=python_script_dbfs_path, python_script_params={'arg1', 'arg2'}

  3. Om du vill köra en JAR som finns i DBFS använder du: main_class_name=main_jar_class_name, jar_params={'arg1', 'arg2'}, jar_libraries=[JarLibrary(jar_library_dbfs_path)]

  4. Om du vill köra ett Python-skript som finns på den lokala datorn använder du: python_script_name=python_script_name, source_directory=source_directory

Ange exakt en av notebook_path, python_script_path, python_script_nameeller main_class_name.

notebook_params
dict[str, Union[str, PipelineParameter]]
standardvärde: None

En ordlista med parametrar som ska skickas till notebook-filen. notebook_params är tillgängliga som widgetar. Du kan hämta värdena från dessa widgetar i notebook-filen med hjälp av dbutils.widgets.get("myparam").

python_script_path
str
standardvärde: None

[Krävs] Sökvägen till Python-skriptet i DBFS. Ange exakt en av notebook_path, python_script_path, python_script_nameeller main_class_name.

python_script_params
list[str, PipelineParameter]
standardvärde: None

Parametrar för Python-skriptet.

main_class_name
str
standardvärde: None

[Krävs] Namnet på startpunkten i en JAR-modul. Ange exakt en av notebook_path, python_script_path, python_script_nameeller main_class_name.

jar_params
list[str, PipelineParameter]
standardvärde: None

Parametrar för JAR-modulen.

python_script_name
str
standardvärde: None

[Krävs] Namnet på ett Python-skript i förhållande till source_directory. Om skriptet tar indata och utdata skickas de till skriptet som parametrar. Om python_script_name anges måste det source_directory också vara det.

Ange exakt en av notebook_path, python_script_path, python_script_nameeller main_class_name.

Om du anger ett DataReference-objekt som indata med data_reference_name=input1 och ett PipelineData-objekt som utdata med namn=output1, skickas indata och utdata till skriptet som parametrar. Så här ser de ut och du måste parsa argumenten i skriptet för att komma åt sökvägarna för varje indata och utdata: "-input1","wasbs://test@storagename.blob.core.windows.net/test","-output1", "wasbs://test@storagename.blob.core.windows.net/b3e26de1-87a4-494d-a20f-1988d22b81a2/output1"

Dessutom är följande parametrar tillgängliga i skriptet:

  • AZUREML_RUN_TOKEN: AML-token för autentisering med Azure Machine Learning.
  • AZUREML_RUN_TOKEN_EXPIRY: Förfallotid för AML-token.
  • AZUREML_RUN_ID: Kör-ID för Azure Machine Learning för den här körningen.
  • AZUREML_ARM_SUBSCRIPTION: Azure-prenumeration för din AML-arbetsyta.
  • AZUREML_ARM_RESOURCEGROUP: Azure-resursgrupp för din Azure Machine Learning-arbetsyta.
  • AZUREML_ARM_WORKSPACE_NAME: Namnet på din Azure Machine Learning-arbetsyta.
  • AZUREML_ARM_PROJECT_NAME: Namnet på ditt Azure Machine Learning-experiment.
  • AZUREML_SERVICE_ENDPOINT: Slutpunkts-URL för AML-tjänster.
  • AZUREML_WORKSPACE_ID: ID för din Azure Machine Learning-arbetsyta.
  • AZUREML_EXPERIMENT_ID: ID för ditt Azure Machine Learning-experiment.
  • AZUREML_SCRIPT_DIRECTORY_NAME: Katalogsökväg i DBFS där source_directory har kopierats. (Den här parametern fylls bara i när python_script_name används. Se mer information nedan.)

När du kör ett Python-skript från den lokala datorn på Databricks med hjälp av DatabricksStep-parametrar och source_directorypython_script_namekopieras source_directory till DBFS och katalogsökvägen i DBFS skickas som en parameter till skriptet när körningen påbörjas. Den här parametern är märkt med –AZUREML_SCRIPT_DIRECTORY_NAME. Du måste prefixet med strängen "dbfs:/" eller "/dbfs/" för att komma åt katalogen i DBFS.

source_directory
str
standardvärde: None

Mappen som innehåller skriptet och andra filer. Om python_script_name anges måste det source_directory också vara det.

hash_paths
[str]
standardvärde: None

INAKTUELL: behövs inte längre.

En lista över sökvägar till hash när du söker efter ändringar i steginnehållet. Om inga ändringar identifieras återanvänder pipelinen steginnehållet från en tidigare körning. Som standard hashas innehållet source_directory i förutom filer som anges i .amlignore eller .gitignore.

run_name
str
standardvärde: None

Namnet i Databricks för den här körningen.

timeout_seconds
int
standardvärde: None

Tidsgränsen för Databricks-körningen.

runconfig
RunConfiguration
standardvärde: None

Den runconfig som ska användas.

Obs! Du kan skicka så många bibliotek du vill som beroenden till jobbet med hjälp av följande parametrar: maven_libraries, pypi_libraries, egg_libraries, jar_librarieseller rcran_libraries. Antingen skickar du dessa parametrar direkt med deras motsvarande parametrar eller som en del av RunConfiguration-objektet med hjälp av parametern runconfig , men inte båda.

maven_libraries
list[MavenLibrary]
standardvärde: None

Maven-bibliotek som ska användas för Databricks-körningen.

pypi_libraries
list[PyPiLibrary]
standardvärde: None

PyPi-bibliotek som ska användas för Databricks-körningen.

egg_libraries
list[EggLibrary]
standardvärde: None

Äggbibliotek som ska användas för Databricks-körningen.

jar_libraries
list[JarLibrary]
standardvärde: None

Jar-bibliotek som ska användas för Databricks-körningen.

rcran_libraries
list[RCranLibrary]
standardvärde: None

RCran-bibliotek som ska användas för Databricks-körningen.

compute_target
str, DatabricksCompute
standardvärde: None

[Krävs] En Azure Databricks-beräkning. Innan du kan använda DatabricksStep för att köra skript eller notebook-filer på en Azure Databricks-arbetsyta måste du lägga till Azure Databricks-arbetsytan som beräkningsmål till din Azure Machine Learning-arbetsyta.

allow_reuse
bool
standardvärde: True

Anger om steget ska återanvända tidigare resultat när det körs igen med samma inställningar. Återanvändning är aktiverat som standard. Om steginnehållet (skript/beroenden) samt indata och parametrar förblir oförändrade återanvänds utdata från föregående körning av det här steget. När du återanvänder steget, i stället för att skicka jobbet för att beräkna, görs resultaten från den föregående körningen omedelbart tillgängliga för efterföljande steg. Om du använder Azure Machine Learning-datauppsättningar som indata bestäms återanvändning av om datauppsättningens definition har ändrats, inte av om underliggande data har ändrats.

version
str
standardvärde: None

En valfri versionstagg som anger en funktionsändring för steget.

permit_cluster_restart
bool
standardvärde: None

Om existing_cluster_id anges anger den här parametern om klustret kan startas om för användarens räkning.

name
str
Obligatorisk

[Krävs] Namnet på steget.

inputs
list[Union[InputPortBinding, DataReference, PortDataReference, PipelineData]]
Obligatorisk

Lista över indataanslutningar för data som förbrukas av det här steget. Hämta detta i notebook-filen med dbutils.widgets.get("input_name"). Kan vara DataReference eller PipelineData. DataReference representerar en befintlig datamängd i ett datalager. Det här är i princip en sökväg i ett datalager. DatabricksStep stöder datalager som kapslar in DBFS, Azure Blob eller ADLS v1. PipelineData representerar mellanliggande data som produceras av ett annat steg i en pipeline.

outputs
list[Union[OutputPortBinding, <xref:azureml.pipeline.core.pipeline_output_dataset.PipelineOutputDataset>, PipelineData]]
Obligatorisk

En lista över portdefinitioner för utdata som genereras av det här steget. Hämta detta i notebook-filen med dbutils.widgets.get("output_name"). Bör vara PipelineData.

existing_cluster_id
str
Obligatorisk

Ett kluster-ID för ett befintligt interaktivt kluster på Databricks-arbetsytan. Om du skickar den här parametern kan du inte skicka någon av följande parametrar som används för att skapa ett nytt kluster:

  • spark_version
  • node_type
  • instance_pool_id
  • num_workers
  • min_workers
  • max_workers
  • spark_env_variables
  • spark_conf

Obs! Om du vill skapa ett nytt jobbkluster måste du skicka ovanstående parametrar. Du kan skicka dessa parametrar direkt eller skicka dem som en del av RunConfiguration-objektet med hjälp av parametern runconfig. Om du skickar dessa parametrar direkt och via RunConfiguration uppstår ett fel.

spark_version
str
Obligatorisk

Versionen av Spark för Databricks kör klustret, till exempel: "10.4.x-scala2.12". Mer information finns i beskrivningen för parametern existing_cluster_id .

node_type
str
Obligatorisk

[Krävs] Nodtyperna för virtuella Azure-datorer för Databricks-körningsklustret, till exempel: "Standard_D3_v2". Ange antingen node_type eller instance_pool_id. Mer information finns i beskrivningen för parametern existing_cluster_id .

instance_pool_id
str
Obligatorisk

[Krävs] Det instanspools-ID som klustret måste kopplas till. Ange antingen node_type eller instance_pool_id. Mer information finns i beskrivningen för parametern existing_cluster_id .

num_workers
int
Obligatorisk

[Krävs] Det statiska antalet arbetare för Databricks-körningsklustret. Du måste ange antingen num_workers eller både min_workers och max_workers.

Mer information finns i beskrivningen för parametern existing_cluster_id .

min_workers
int
Obligatorisk

[Krävs] Minsta antal arbetare som ska användas för automatisk skalning av Databricks-körningsklustret. Du måste ange antingen num_workers eller både min_workers och max_workers.

Mer information finns i beskrivningen för parametern existing_cluster_id .

max_workers
int
Obligatorisk

[Krävs] Det maximala antalet arbetare som ska användas för automatisk skalning av Databricks-körningsklustret. Du måste ange antingen num_workers eller både min_workers och max_workers.

Mer information finns i beskrivningen för parametern existing_cluster_id .

spark_env_variables
dict
Obligatorisk

Spark-miljövariablerna för Databricks kör klustret. Mer information finns i beskrivningen för parametern existing_cluster_id .

spark_conf
dict
Obligatorisk

Spark-konfigurationen för Databricks-körningsklustret. Mer information finns i beskrivningen för parametern existing_cluster_id .

init_scripts
[str]
Obligatorisk

Inaktuellt. Databricks meddelade att init-skriptet som lagras i DBFS kommer att sluta fungera efter 1 dec 2023. Du kan åtgärda problemet genom att 1) använda globala init-skript i databricks efter https://learn.microsoft.com/azure/databricks/init-scripts/global 2) kommentera ut raden med init_scripts i azureML-databricks-steget.

cluster_log_dbfs_path
str
Obligatorisk

DBFS-sökvägarna där klusterloggar ska levereras.

notebook_path
str
Obligatorisk

[Krävs] Sökvägen till notebook-filen i Databricks-instansen. Den här klassen tillåter fyra sätt att ange att koden ska köras på Databricks-klustret.

  1. Om du vill köra en notebook-fil som finns på Databricks-arbetsytan använder du: notebook_path=notebook_path, notebook_params={'myparam': 'testparam'}

  2. Om du vill köra ett Python-skript som finns i DBFS använder du: python_script_path=python_script_dbfs_path, python_script_params={'arg1', 'arg2'}

  3. Om du vill köra en JAR som finns i DBFS använder du: main_class_name=main_jar_class_name, jar_params={'arg1', 'arg2'}, jar_libraries=[JarLibrary(jar_library_dbfs_path)]

  4. Om du vill köra ett Python-skript som finns på den lokala datorn använder du: python_script_name=python_script_name, source_directory=source_directory

Ange exakt en av notebook_path, python_script_path, python_script_nameeller main_class_name.

notebook_params
dict[str, (str eller PipelineParameter)]
Obligatorisk

En ordlista med parametrar som ska skickas till notebook-filen. notebook_params är tillgängliga som widgetar. Du kan hämta värdena från dessa widgetar i notebook-filen med hjälp av dbutils.widgets.get("myparam").

python_script_path
str
Obligatorisk

[Krävs] Sökvägen till Python-skriptet i DBFS. Ange exakt en av notebook_path, python_script_path, python_script_nameeller main_class_name.

python_script_params
list[str, PipelineParameter]
Obligatorisk

Parametrar för Python-skriptet.

main_class_name
str
Obligatorisk

[Krävs] Namnet på startpunkten i en JAR-modul. Ange exakt en av notebook_path, python_script_path, python_script_nameeller main_class_name.

jar_params
list[str, PipelineParameter]
Obligatorisk

Parametrar för JAR-modulen.

source_directory
str
Obligatorisk

Mappen som innehåller skriptet och andra filer. Om python_script_name anges måste det source_directory också vara det.

hash_paths
[str]
Obligatorisk

INAKTUELL: behövs inte längre.

En lista över sökvägar till hash när du söker efter ändringar i steginnehållet. Om inga ändringar identifieras återanvänder pipelinen steginnehållet från en tidigare körning. Som standard hashas innehållet source_directory i förutom filer som anges i .amlignore eller .gitignore.

run_name
str
Obligatorisk

Namnet i Databricks för den här körningen.

timeout_seconds
int
Obligatorisk

Tidsgränsen för Databricks-körningen.

runconfig
RunConfiguration
Obligatorisk

Den runconfig som ska användas.

Obs! Du kan skicka så många bibliotek du vill som beroenden till jobbet med hjälp av följande parametrar: maven_libraries, pypi_libraries, egg_libraries, jar_librarieseller rcran_libraries. Antingen skickar du dessa parametrar direkt med deras motsvarande parametrar eller som en del av RunConfiguration-objektet med hjälp av parametern runconfig , men inte båda.

maven_libraries
list[<xref:azureml.core.runconfig.MavenLibrary>]
Obligatorisk

Maven-bibliotek som ska användas för Databricks-körningen. Mer information om specifikationen för Maven-bibliotek finns i help(azureml.core.runconfig.MavenLibrary).

pypi_libraries
list[<xref:azureml.core.runconfig.PyPiLibrary>]
Obligatorisk

PyPi-bibliotek som ska användas för Databricks-körningen. Mer information om specifikationen för PyPi-bibliotek finns i help(azureml.core.runconfig.PyPiLibrary).

egg_libraries
list[<xref:azureml.core.runconfig.EggLibrary>]
Obligatorisk

Äggbibliotek som ska användas för Databricks-körningen. Mer information om specifikationen av Äggbibliotek finns i help(azureml.core.runconfig.EggLibrary).

jar_libraries
list[<xref:azureml.core.runconfig.JarLibrary>]
Obligatorisk

Jar-bibliotek som ska användas för Databricks-körningen. Mer information om specifikationen för Jar-bibliotek finns i help(azureml.core.runconfig.JarLibrary).

rcran_libraries
list[<xref:azureml.core.runconfig.RCranLibrary>]
Obligatorisk

RCran-bibliotek som ska användas för Databricks-körningen. Mer information om specifikationen för RCran-bibliotek finns i help(azureml.core.runconfig.RCranLibrary).

compute_target
str, DatabricksCompute
Obligatorisk

[Krävs] Azure Databricks-beräkning. Innan du kan använda DatabricksStep för att köra skript eller notebook-filer på en Azure Databricks-arbetsyta måste du lägga till Azure Databricks-arbetsytan som beräkningsmål till din Azure Machine Learning-arbetsyta.

allow_reuse
bool
Obligatorisk

Anger om steget ska återanvända tidigare resultat när det körs igen med samma inställningar. Återanvändning är aktiverat som standard. Om steginnehållet (skript/beroenden) samt indata och parametrar förblir oförändrade återanvänds utdata från föregående körning av det här steget. När du återanvänder steget, i stället för att skicka jobbet för att beräkna, görs resultaten från den föregående körningen omedelbart tillgängliga för efterföljande steg. Om du använder Azure Machine Learning-datauppsättningar som indata bestäms återanvändning av om datauppsättningens definition har ändrats, inte av om underliggande data har ändrats.

version
str
Obligatorisk

En valfri versionstagg som anger en funktionsändring för steget.

permit_cluster_restart
bool
Obligatorisk

Om existing_cluster_id anges anger den här parametern om klustret kan startas om för användarens räkning.

Metoder

create_node

Skapa en nod från Steget Databricks och lägg till den i den angivna grafen.

Den här metoden är inte avsedd att användas direkt. När en pipeline instansieras med det här steget skickar Azure ML automatiskt de parametrar som krävs via den här metoden så att steget kan läggas till i ett pipelinediagram som representerar arbetsflödet.

create_node

Skapa en nod från Steget Databricks och lägg till den i den angivna grafen.

Den här metoden är inte avsedd att användas direkt. När en pipeline instansieras med det här steget skickar Azure ML automatiskt de parametrar som krävs via den här metoden så att steget kan läggas till i ett pipelinediagram som representerar arbetsflödet.

create_node(graph, default_datastore, context)

Parametrar

graph
Graph
Obligatorisk

Grafobjektet som noden ska läggas till i.

default_datastore
Union[AbstractAzureStorageDatastore, AzureDataLakeDatastore]
Obligatorisk

Standarddatalager.

context
<xref:azureml.pipeline.core._GraphContext>
Obligatorisk

Grafkontexten.

Returer

Den skapade noden.

Returtyp