Freigeben über


SynapseSparkJobDefinitionActivity Klasse

Führen Sie die Spark-Auftragsaktivität aus.

Zum Senden an Azure müssen alle erforderlichen Parameter aufgefüllt werden.

Vererbung
azure.mgmt.datafactory.models._models_py3.ExecutionActivity
SynapseSparkJobDefinitionActivity

Konstruktor

SynapseSparkJobDefinitionActivity(*, name: str, spark_job: _models.SynapseSparkJobReference, additional_properties: Dict[str, MutableMapping[str, Any]] | None = None, description: str | None = None, state: str | _models.ActivityState | None = None, on_inactive_mark_as: str | _models.ActivityOnInactiveMarkAs | None = None, depends_on: List[_models.ActivityDependency] | None = None, user_properties: List[_models.UserProperty] | None = None, linked_service_name: _models.LinkedServiceReference | None = None, policy: _models.ActivityPolicy | None = None, arguments: List[Any] | None = None, file: MutableMapping[str, Any] | None = None, scan_folder: MutableMapping[str, Any] | None = None, class_name: MutableMapping[str, Any] | None = None, files: List[MutableMapping[str, Any]] | None = None, python_code_reference: List[MutableMapping[str, Any]] | None = None, files_v2: List[MutableMapping[str, Any]] | None = None, target_big_data_pool: _models.BigDataPoolParametrizationReference | None = None, executor_size: MutableMapping[str, Any] | None = None, conf: MutableMapping[str, Any] | None = None, driver_size: MutableMapping[str, Any] | None = None, num_executors: MutableMapping[str, Any] | None = None, configuration_type: str | _models.ConfigurationType | None = None, target_spark_configuration: _models.SparkConfigurationParametrizationReference | None = None, spark_config: Dict[str, MutableMapping[str, Any]] | None = None, **kwargs: Any)

Keyword-Only Parameter

Name Beschreibung
additional_properties
dict[str, <xref:JSON>]

Nicht übereinstimmende Eigenschaften aus der Nachricht werden für diese Auflistung deserialisiert.

name
str

Aktivitätsname. Erforderlich.

description
str

Aktivitätsbeschreibung.

state

Aktivitätsstatus. Dies ist eine optionale Eigenschaft, und wenn nicht angegeben, ist der Status standardmäßig Aktiv. Bekannte Werte sind: "Aktiv" und "Inaktiv".

on_inactive_mark_as

Statusergebnis der Aktivität, wenn der Status auf Inaktiv festgelegt ist. Dies ist eine optionale Eigenschaft. Wenn die Aktivität nicht angegeben wird, ist die status standardmäßig erfolgreich. Bekannte Werte sind: "Erfolgreich", "Failed" und "Skipped".

depends_on

Die Aktivität hängt von der Bedingung ab.

user_properties

Aktivitätsbenutzereigenschaften.

linked_service_name

Verweis auf verknüpfte Dienste.

policy

Aktivitätsrichtlinie.

spark_job

Synapse Spark-Auftragsreferenz. Erforderlich.

arguments

Vom Benutzer angegebene Argumente für SynapseSparkJobDefinitionActivity.

file
<xref:JSON>

Die Standard-Datei, die für den Auftrag verwendet wird, wodurch die "Datei" der von Ihnen angegebenen Spark-Auftragsdefinition überschrieben wird. Typ: string (oder Ausdruck mit resultType-Zeichenfolge).

scan_folder
<xref:JSON>

Beim Überprüfen von Unterordnern aus dem Stammordner der Hauptdefinitionsdatei werden diese Dateien als Referenzdateien hinzugefügt. In den Ordnern "jars", "pyFiles", "files" oder "archives" wird die Groß-/Kleinschreibung beachtet. Typ: boolean (oder Ausdruck mit resultType boolean).

class_name
<xref:JSON>

Der vollqualifizierte Bezeichner oder die Standard-Klasse, die sich in der Standard-Definitionsdatei befindet, die den "className" der von Ihnen angegebenen Spark-Auftragsdefinition überschreibt. Typ: string (oder Ausdruck mit resultType-Zeichenfolge).

files
list[<xref:JSON>]

(Veraltet. Verwenden Sie pythonCodeReference und filesV2) Zusätzliche Dateien, die als Referenz in der Standard-Definitionsdatei verwendet werden, wodurch die "Dateien" der von Ihnen bereitgestellten Spark-Auftragsdefinition außer Kraft gesetzt werden.

python_code_reference
list[<xref:JSON>]

Zusätzliche Python-Codedateien, die als Referenz in der Standard-Definitionsdatei verwendet werden, die die "pyFiles" der von Ihnen bereitgestellten Spark-Auftragsdefinition überschreiben.

files_v2
list[<xref:JSON>]

Zusätzliche Dateien, die als Referenz in der Standard-Definitionsdatei verwendet werden, wodurch die "jars" und "files" der von Ihnen angegebenen Spark-Auftragsdefinition außer Kraft gesetzt werden.

target_big_data_pool

Der Name des Big Data-Pools, der zum Ausführen des Spark-Batchauftrags verwendet wird, der den "targetBigDataPool" der von Ihnen angegebenen Spark-Auftragsdefinition überschreibt.

executor_size
<xref:JSON>

Anzahl von Kernen und Arbeitsspeicher, die für Executors verwendet werden sollen, die im angegebenen Spark-Pool für den Auftrag zugewiesen werden, der zum Überschreiben von "executorCores" und "executorMemory" der von Ihnen bereitgestellten Spark-Auftragsdefinition verwendet wird. Typ: string (oder Ausdruck mit resultType-Zeichenfolge).

conf
<xref:JSON>

Spark-Konfigurationseigenschaften, die die "Conf" der von Ihnen bereitgestellten Spark-Auftragsdefinition überschreiben.

driver_size
<xref:JSON>

Die Anzahl des Kerns und des Arbeitsspeichers, der für den Treiber verwendet werden soll, der im angegebenen Spark-Pool für den Auftrag zugeordnet ist, der zum Überschreiben von "driverCores" und "driverMemory" der von Ihnen bereitgestellten Spark-Auftragsdefinition verwendet wird. Typ: string (oder Ausdruck mit resultType-Zeichenfolge).

num_executors
<xref:JSON>

Anzahl der Executors, die für diesen Auftrag gestartet werden sollen, wodurch die "numExecutors" der von Ihnen bereitgestellten Spark-Auftragsdefinition überschrieben werden. Type: integer (oder Expression with resultType integer).

configuration_type

Der Typ der Spark-Konfiguration. Bekannte Werte sind "Default", "Customized" und "Artifact".

target_spark_configuration

Die Spark-Konfiguration des Spark-Auftrags.

spark_config
dict[str, <xref:JSON>]

Spark-Konfigurationseigenschaft.

Variablen

Name Beschreibung
additional_properties
dict[str, <xref:JSON>]

Nicht übereinstimmende Eigenschaften aus der Nachricht werden für diese Auflistung deserialisiert.

name
str

Aktivitätsname. Erforderlich.

type
str

Der Typ der Aktivität. Erforderlich.

description
str

Aktivitätsbeschreibung.

state

Aktivitätsstatus. Dies ist eine optionale Eigenschaft, und wenn nicht angegeben, ist der Status standardmäßig Aktiv. Bekannte Werte sind: "Aktiv" und "Inaktiv".

on_inactive_mark_as

Statusergebnis der Aktivität, wenn der Status auf Inaktiv festgelegt ist. Dies ist eine optionale Eigenschaft. Wenn die Aktivität nicht angegeben wird, ist die status standardmäßig erfolgreich. Bekannte Werte sind: "Erfolgreich", "Failed" und "Skipped".

depends_on

Die Aktivität hängt von der Bedingung ab.

user_properties

Aktivitätsbenutzereigenschaften.

linked_service_name

Verweis auf verknüpfte Dienste.

policy

Aktivitätsrichtlinie.

spark_job

Synapse Spark-Auftragsreferenz. Erforderlich.

arguments

Vom Benutzer angegebene Argumente für SynapseSparkJobDefinitionActivity.

file
<xref:JSON>

Die Standard-Datei, die für den Auftrag verwendet wird, wodurch die "Datei" der von Ihnen angegebenen Spark-Auftragsdefinition überschrieben wird. Typ: string (oder Ausdruck mit resultType-Zeichenfolge).

scan_folder
<xref:JSON>

Beim Überprüfen von Unterordnern aus dem Stammordner der Hauptdefinitionsdatei werden diese Dateien als Referenzdateien hinzugefügt. In den Ordnern "jars", "pyFiles", "files" oder "archives" wird die Groß-/Kleinschreibung beachtet. Typ: boolean (oder Ausdruck mit resultType boolean).

class_name
<xref:JSON>

Der vollqualifizierte Bezeichner oder die Standard-Klasse, die sich in der Standard-Definitionsdatei befindet, die den "className" der von Ihnen angegebenen Spark-Auftragsdefinition überschreibt. Typ: string (oder Ausdruck mit resultType-Zeichenfolge).

files
list[<xref:JSON>]

(Veraltet. Verwenden Sie pythonCodeReference und filesV2) Zusätzliche Dateien, die als Referenz in der Standard-Definitionsdatei verwendet werden, wodurch die "Dateien" der von Ihnen bereitgestellten Spark-Auftragsdefinition außer Kraft gesetzt werden.

python_code_reference
list[<xref:JSON>]

Zusätzliche Python-Codedateien, die als Referenz in der Standard-Definitionsdatei verwendet werden, die die "pyFiles" der von Ihnen bereitgestellten Spark-Auftragsdefinition überschreiben.

files_v2
list[<xref:JSON>]

Zusätzliche Dateien, die als Referenz in der Standard-Definitionsdatei verwendet werden, wodurch die "jars" und "files" der von Ihnen angegebenen Spark-Auftragsdefinition außer Kraft gesetzt werden.

target_big_data_pool

Der Name des Big Data-Pools, der zum Ausführen des Spark-Batchauftrags verwendet wird, der den "targetBigDataPool" der von Ihnen angegebenen Spark-Auftragsdefinition überschreibt.

executor_size
<xref:JSON>

Anzahl von Kernen und Arbeitsspeicher, die für Executors verwendet werden sollen, die im angegebenen Spark-Pool für den Auftrag zugewiesen werden, der zum Überschreiben von "executorCores" und "executorMemory" der von Ihnen bereitgestellten Spark-Auftragsdefinition verwendet wird. Typ: string (oder Ausdruck mit resultType-Zeichenfolge).

conf
<xref:JSON>

Spark-Konfigurationseigenschaften, die die "Conf" der von Ihnen bereitgestellten Spark-Auftragsdefinition überschreiben.

driver_size
<xref:JSON>

Die Anzahl des Kerns und des Arbeitsspeichers, der für den Treiber verwendet werden soll, der im angegebenen Spark-Pool für den Auftrag zugeordnet ist, der zum Überschreiben von "driverCores" und "driverMemory" der von Ihnen bereitgestellten Spark-Auftragsdefinition verwendet wird. Typ: string (oder Ausdruck mit resultType-Zeichenfolge).

num_executors
<xref:JSON>

Anzahl der Executors, die für diesen Auftrag gestartet werden sollen, wodurch die "numExecutors" der von Ihnen bereitgestellten Spark-Auftragsdefinition überschrieben werden. Type: integer (oder Expression with resultType integer).

configuration_type

Der Typ der Spark-Konfiguration. Bekannte Werte sind "Default", "Customized" und "Artifact".

target_spark_configuration

Die Spark-Konfiguration des Spark-Auftrags.

spark_config
dict[str, <xref:JSON>]

Spark-Konfigurationseigenschaft.