Freigeben über


SynapseNotebookActivity Klasse

Führen Sie die Synapse-Notebookaktivität aus.

Zum Senden an Azure müssen alle erforderlichen Parameter aufgefüllt werden.

Vererbung
azure.mgmt.datafactory.models._models_py3.ExecutionActivity
SynapseNotebookActivity

Konstruktor

SynapseNotebookActivity(*, name: str, notebook: _models.SynapseNotebookReference, additional_properties: Dict[str, MutableMapping[str, Any]] | None = None, description: str | None = None, state: str | _models.ActivityState | None = None, on_inactive_mark_as: str | _models.ActivityOnInactiveMarkAs | None = None, depends_on: List[_models.ActivityDependency] | None = None, user_properties: List[_models.UserProperty] | None = None, linked_service_name: _models.LinkedServiceReference | None = None, policy: _models.ActivityPolicy | None = None, spark_pool: _models.BigDataPoolParametrizationReference | None = None, parameters: Dict[str, _models.NotebookParameter] | None = None, executor_size: MutableMapping[str, Any] | None = None, conf: MutableMapping[str, Any] | None = None, driver_size: MutableMapping[str, Any] | None = None, num_executors: MutableMapping[str, Any] | None = None, configuration_type: str | _models.ConfigurationType | None = None, target_spark_configuration: _models.SparkConfigurationParametrizationReference | None = None, spark_config: Dict[str, MutableMapping[str, Any]] | None = None, **kwargs: Any)

Keyword-Only Parameter

Name Beschreibung
additional_properties
dict[str, <xref:JSON>]

Nicht übereinstimmende Eigenschaften aus der Nachricht werden für diese Auflistung deserialisiert.

name
str

Aktivitätsname. Erforderlich.

description
str

Aktivitätsbeschreibung.

state

Aktivitätsstatus. Dies ist eine optionale Eigenschaft, und wenn nicht angegeben, ist der Status standardmäßig Aktiv. Bekannte Werte sind: "Aktiv" und "Inaktiv".

on_inactive_mark_as

Statusergebnis der Aktivität, wenn der Status auf Inaktiv festgelegt ist. Dies ist eine optionale Eigenschaft. Wenn die Aktivität nicht angegeben wird, ist die status standardmäßig erfolgreich. Bekannte Werte sind: "Erfolgreich", "Failed" und "Skipped".

depends_on

Die Aktivität hängt von der Bedingung ab.

user_properties

Aktivitätsbenutzereigenschaften.

linked_service_name

Verweis auf verknüpfte Dienste.

policy

Aktivitätsrichtlinie.

notebook

Synapse Notebook-Referenz. Erforderlich.

spark_pool

Der Name des Big Data-Pools, der zum Ausführen des Notebooks verwendet wird.

parameters

Notebookparameter.

executor_size
<xref:JSON>

Die Anzahl der Kerne und des Arbeitsspeichers, die für Executors verwendet werden sollen, die im angegebenen Spark-Pool für die Sitzung zugewiesen werden, die zum Überschreiben von "executorCores" und "executorMemory" des von Ihnen bereitgestellten Notebooks verwendet werden. Typ: string (oder Ausdruck mit resultType-Zeichenfolge).

conf
<xref:JSON>

Spark-Konfigurationseigenschaften, die die "conf" des von Ihnen bereitgestellten Notebooks überschreiben.

driver_size
<xref:JSON>

Die Anzahl des Kerns und des Arbeitsspeichers, der für den Treiber verwendet werden soll, der im angegebenen Spark-Pool für die Sitzung zugewiesen wird, wird zum Überschreiben von "driverCores" und "driverMemory" des von Ihnen bereitgestellten Notebooks verwendet. Typ: string (oder Ausdruck mit resultType-Zeichenfolge).

num_executors
<xref:JSON>

Anzahl der Executors, die für diese Sitzung gestartet werden sollen, wodurch die "numExecutors" des von Ihnen bereitgestellten Notebooks überschrieben werden. Type: integer (oder Expression with resultType integer).

configuration_type

Der Typ der Spark-Konfiguration. Bekannte Werte sind "Default", "Customized" und "Artifact".

target_spark_configuration

Die Spark-Konfiguration des Spark-Auftrags.

spark_config
dict[str, <xref:JSON>]

Spark-Konfigurationseigenschaft.

Variablen

Name Beschreibung
additional_properties
dict[str, <xref:JSON>]

Nicht übereinstimmende Eigenschaften aus der Nachricht werden für diese Auflistung deserialisiert.

name
str

Aktivitätsname. Erforderlich.

type
str

Der Typ der Aktivität. Erforderlich.

description
str

Aktivitätsbeschreibung.

state

Aktivitätsstatus. Dies ist eine optionale Eigenschaft, und wenn nicht angegeben, ist der Status standardmäßig Aktiv. Bekannte Werte sind: "Aktiv" und "Inaktiv".

on_inactive_mark_as

Statusergebnis der Aktivität, wenn der Status auf Inaktiv festgelegt ist. Dies ist eine optionale Eigenschaft. Wenn die Aktivität nicht angegeben wird, ist die status standardmäßig erfolgreich. Bekannte Werte sind: "Erfolgreich", "Failed" und "Skipped".

depends_on

Die Aktivität hängt von der Bedingung ab.

user_properties

Aktivitätsbenutzereigenschaften.

linked_service_name

Verweis auf verknüpfte Dienste.

policy

Aktivitätsrichtlinie.

notebook

Synapse Notebook-Referenz. Erforderlich.

spark_pool

Der Name des Big Data-Pools, der zum Ausführen des Notebooks verwendet wird.

parameters

Notebookparameter.

executor_size
<xref:JSON>

Die Anzahl der Kerne und des Arbeitsspeichers, die für Executors verwendet werden sollen, die im angegebenen Spark-Pool für die Sitzung zugewiesen werden, die zum Überschreiben von "executorCores" und "executorMemory" des von Ihnen bereitgestellten Notebooks verwendet werden. Typ: string (oder Ausdruck mit resultType-Zeichenfolge).

conf
<xref:JSON>

Spark-Konfigurationseigenschaften, die die "conf" des von Ihnen bereitgestellten Notebooks überschreiben.

driver_size
<xref:JSON>

Die Anzahl des Kerns und des Arbeitsspeichers, der für den Treiber verwendet werden soll, der im angegebenen Spark-Pool für die Sitzung zugewiesen wird, wird zum Überschreiben von "driverCores" und "driverMemory" des von Ihnen bereitgestellten Notebooks verwendet. Typ: string (oder Ausdruck mit resultType-Zeichenfolge).

num_executors
<xref:JSON>

Anzahl der Executors, die für diese Sitzung gestartet werden sollen, wodurch die "numExecutors" des von Ihnen bereitgestellten Notebooks überschrieben werden. Type: integer (oder Expression with resultType integer).

configuration_type

Der Typ der Spark-Konfiguration. Bekannte Werte sind "Default", "Customized" und "Artifact".

target_spark_configuration

Die Spark-Konfiguration des Spark-Auftrags.

spark_config
dict[str, <xref:JSON>]

Spark-Konfigurationseigenschaft.