SynapseSparkJobDefinitionActivity Klasse
Führen Sie die Spark-Auftragsaktivität aus.
Zum Senden an Azure müssen alle erforderlichen Parameter aufgefüllt werden.
- Vererbung
-
azure.mgmt.datafactory.models._models_py3.ExecutionActivitySynapseSparkJobDefinitionActivity
Konstruktor
SynapseSparkJobDefinitionActivity(*, name: str, spark_job: _models.SynapseSparkJobReference, additional_properties: Dict[str, MutableMapping[str, Any]] | None = None, description: str | None = None, state: str | _models.ActivityState | None = None, on_inactive_mark_as: str | _models.ActivityOnInactiveMarkAs | None = None, depends_on: List[_models.ActivityDependency] | None = None, user_properties: List[_models.UserProperty] | None = None, linked_service_name: _models.LinkedServiceReference | None = None, policy: _models.ActivityPolicy | None = None, arguments: List[Any] | None = None, file: MutableMapping[str, Any] | None = None, scan_folder: MutableMapping[str, Any] | None = None, class_name: MutableMapping[str, Any] | None = None, files: List[MutableMapping[str, Any]] | None = None, python_code_reference: List[MutableMapping[str, Any]] | None = None, files_v2: List[MutableMapping[str, Any]] | None = None, target_big_data_pool: _models.BigDataPoolParametrizationReference | None = None, executor_size: MutableMapping[str, Any] | None = None, conf: MutableMapping[str, Any] | None = None, driver_size: MutableMapping[str, Any] | None = None, num_executors: MutableMapping[str, Any] | None = None, configuration_type: str | _models.ConfigurationType | None = None, target_spark_configuration: _models.SparkConfigurationParametrizationReference | None = None, spark_config: Dict[str, MutableMapping[str, Any]] | None = None, **kwargs: Any)
Keyword-Only Parameter
Name | Beschreibung |
---|---|
additional_properties
|
Nicht übereinstimmende Eigenschaften aus der Nachricht werden für diese Auflistung deserialisiert. |
name
|
Aktivitätsname. Erforderlich. |
description
|
Aktivitätsbeschreibung. |
state
|
str oder
ActivityState
Aktivitätsstatus. Dies ist eine optionale Eigenschaft, und wenn nicht angegeben, ist der Status standardmäßig Aktiv. Bekannte Werte sind: "Aktiv" und "Inaktiv". |
on_inactive_mark_as
|
Statusergebnis der Aktivität, wenn der Status auf Inaktiv festgelegt ist. Dies ist eine optionale Eigenschaft. Wenn die Aktivität nicht angegeben wird, ist die status standardmäßig erfolgreich. Bekannte Werte sind: "Erfolgreich", "Failed" und "Skipped". |
depends_on
|
Die Aktivität hängt von der Bedingung ab. |
user_properties
|
Aktivitätsbenutzereigenschaften. |
linked_service_name
|
Verweis auf verknüpfte Dienste. |
policy
|
Aktivitätsrichtlinie. |
spark_job
|
Synapse Spark-Auftragsreferenz. Erforderlich. |
arguments
|
Vom Benutzer angegebene Argumente für SynapseSparkJobDefinitionActivity. |
file
|
<xref:JSON>
Die Standard-Datei, die für den Auftrag verwendet wird, wodurch die "Datei" der von Ihnen angegebenen Spark-Auftragsdefinition überschrieben wird. Typ: string (oder Ausdruck mit resultType-Zeichenfolge). |
scan_folder
|
<xref:JSON>
Beim Überprüfen von Unterordnern aus dem Stammordner der Hauptdefinitionsdatei werden diese Dateien als Referenzdateien hinzugefügt. In den Ordnern "jars", "pyFiles", "files" oder "archives" wird die Groß-/Kleinschreibung beachtet. Typ: boolean (oder Ausdruck mit resultType boolean). |
class_name
|
<xref:JSON>
Der vollqualifizierte Bezeichner oder die Standard-Klasse, die sich in der Standard-Definitionsdatei befindet, die den "className" der von Ihnen angegebenen Spark-Auftragsdefinition überschreibt. Typ: string (oder Ausdruck mit resultType-Zeichenfolge). |
files
|
list[<xref:JSON>]
(Veraltet. Verwenden Sie pythonCodeReference und filesV2) Zusätzliche Dateien, die als Referenz in der Standard-Definitionsdatei verwendet werden, wodurch die "Dateien" der von Ihnen bereitgestellten Spark-Auftragsdefinition außer Kraft gesetzt werden. |
python_code_reference
|
list[<xref:JSON>]
Zusätzliche Python-Codedateien, die als Referenz in der Standard-Definitionsdatei verwendet werden, die die "pyFiles" der von Ihnen bereitgestellten Spark-Auftragsdefinition überschreiben. |
files_v2
|
list[<xref:JSON>]
Zusätzliche Dateien, die als Referenz in der Standard-Definitionsdatei verwendet werden, wodurch die "jars" und "files" der von Ihnen angegebenen Spark-Auftragsdefinition außer Kraft gesetzt werden. |
target_big_data_pool
|
Der Name des Big Data-Pools, der zum Ausführen des Spark-Batchauftrags verwendet wird, der den "targetBigDataPool" der von Ihnen angegebenen Spark-Auftragsdefinition überschreibt. |
executor_size
|
<xref:JSON>
Anzahl von Kernen und Arbeitsspeicher, die für Executors verwendet werden sollen, die im angegebenen Spark-Pool für den Auftrag zugewiesen werden, der zum Überschreiben von "executorCores" und "executorMemory" der von Ihnen bereitgestellten Spark-Auftragsdefinition verwendet wird. Typ: string (oder Ausdruck mit resultType-Zeichenfolge). |
conf
|
<xref:JSON>
Spark-Konfigurationseigenschaften, die die "Conf" der von Ihnen bereitgestellten Spark-Auftragsdefinition überschreiben. |
driver_size
|
<xref:JSON>
Die Anzahl des Kerns und des Arbeitsspeichers, der für den Treiber verwendet werden soll, der im angegebenen Spark-Pool für den Auftrag zugeordnet ist, der zum Überschreiben von "driverCores" und "driverMemory" der von Ihnen bereitgestellten Spark-Auftragsdefinition verwendet wird. Typ: string (oder Ausdruck mit resultType-Zeichenfolge). |
num_executors
|
<xref:JSON>
Anzahl der Executors, die für diesen Auftrag gestartet werden sollen, wodurch die "numExecutors" der von Ihnen bereitgestellten Spark-Auftragsdefinition überschrieben werden. Type: integer (oder Expression with resultType integer). |
configuration_type
|
str oder
ConfigurationType
Der Typ der Spark-Konfiguration. Bekannte Werte sind "Default", "Customized" und "Artifact". |
target_spark_configuration
|
Die Spark-Konfiguration des Spark-Auftrags. |
spark_config
|
Spark-Konfigurationseigenschaft. |
Variablen
Name | Beschreibung |
---|---|
additional_properties
|
Nicht übereinstimmende Eigenschaften aus der Nachricht werden für diese Auflistung deserialisiert. |
name
|
Aktivitätsname. Erforderlich. |
type
|
Der Typ der Aktivität. Erforderlich. |
description
|
Aktivitätsbeschreibung. |
state
|
str oder
ActivityState
Aktivitätsstatus. Dies ist eine optionale Eigenschaft, und wenn nicht angegeben, ist der Status standardmäßig Aktiv. Bekannte Werte sind: "Aktiv" und "Inaktiv". |
on_inactive_mark_as
|
Statusergebnis der Aktivität, wenn der Status auf Inaktiv festgelegt ist. Dies ist eine optionale Eigenschaft. Wenn die Aktivität nicht angegeben wird, ist die status standardmäßig erfolgreich. Bekannte Werte sind: "Erfolgreich", "Failed" und "Skipped". |
depends_on
|
Die Aktivität hängt von der Bedingung ab. |
user_properties
|
Aktivitätsbenutzereigenschaften. |
linked_service_name
|
Verweis auf verknüpfte Dienste. |
policy
|
Aktivitätsrichtlinie. |
spark_job
|
Synapse Spark-Auftragsreferenz. Erforderlich. |
arguments
|
Vom Benutzer angegebene Argumente für SynapseSparkJobDefinitionActivity. |
file
|
<xref:JSON>
Die Standard-Datei, die für den Auftrag verwendet wird, wodurch die "Datei" der von Ihnen angegebenen Spark-Auftragsdefinition überschrieben wird. Typ: string (oder Ausdruck mit resultType-Zeichenfolge). |
scan_folder
|
<xref:JSON>
Beim Überprüfen von Unterordnern aus dem Stammordner der Hauptdefinitionsdatei werden diese Dateien als Referenzdateien hinzugefügt. In den Ordnern "jars", "pyFiles", "files" oder "archives" wird die Groß-/Kleinschreibung beachtet. Typ: boolean (oder Ausdruck mit resultType boolean). |
class_name
|
<xref:JSON>
Der vollqualifizierte Bezeichner oder die Standard-Klasse, die sich in der Standard-Definitionsdatei befindet, die den "className" der von Ihnen angegebenen Spark-Auftragsdefinition überschreibt. Typ: string (oder Ausdruck mit resultType-Zeichenfolge). |
files
|
list[<xref:JSON>]
(Veraltet. Verwenden Sie pythonCodeReference und filesV2) Zusätzliche Dateien, die als Referenz in der Standard-Definitionsdatei verwendet werden, wodurch die "Dateien" der von Ihnen bereitgestellten Spark-Auftragsdefinition außer Kraft gesetzt werden. |
python_code_reference
|
list[<xref:JSON>]
Zusätzliche Python-Codedateien, die als Referenz in der Standard-Definitionsdatei verwendet werden, die die "pyFiles" der von Ihnen bereitgestellten Spark-Auftragsdefinition überschreiben. |
files_v2
|
list[<xref:JSON>]
Zusätzliche Dateien, die als Referenz in der Standard-Definitionsdatei verwendet werden, wodurch die "jars" und "files" der von Ihnen angegebenen Spark-Auftragsdefinition außer Kraft gesetzt werden. |
target_big_data_pool
|
Der Name des Big Data-Pools, der zum Ausführen des Spark-Batchauftrags verwendet wird, der den "targetBigDataPool" der von Ihnen angegebenen Spark-Auftragsdefinition überschreibt. |
executor_size
|
<xref:JSON>
Anzahl von Kernen und Arbeitsspeicher, die für Executors verwendet werden sollen, die im angegebenen Spark-Pool für den Auftrag zugewiesen werden, der zum Überschreiben von "executorCores" und "executorMemory" der von Ihnen bereitgestellten Spark-Auftragsdefinition verwendet wird. Typ: string (oder Ausdruck mit resultType-Zeichenfolge). |
conf
|
<xref:JSON>
Spark-Konfigurationseigenschaften, die die "Conf" der von Ihnen bereitgestellten Spark-Auftragsdefinition überschreiben. |
driver_size
|
<xref:JSON>
Die Anzahl des Kerns und des Arbeitsspeichers, der für den Treiber verwendet werden soll, der im angegebenen Spark-Pool für den Auftrag zugeordnet ist, der zum Überschreiben von "driverCores" und "driverMemory" der von Ihnen bereitgestellten Spark-Auftragsdefinition verwendet wird. Typ: string (oder Ausdruck mit resultType-Zeichenfolge). |
num_executors
|
<xref:JSON>
Anzahl der Executors, die für diesen Auftrag gestartet werden sollen, wodurch die "numExecutors" der von Ihnen bereitgestellten Spark-Auftragsdefinition überschrieben werden. Type: integer (oder Expression with resultType integer). |
configuration_type
|
str oder
ConfigurationType
Der Typ der Spark-Konfiguration. Bekannte Werte sind "Default", "Customized" und "Artifact". |
target_spark_configuration
|
Die Spark-Konfiguration des Spark-Auftrags. |
spark_config
|
Spark-Konfigurationseigenschaft. |
Azure SDK for Python
Feedback
https://aka.ms/ContentUserFeedback.
Bald verfügbar: Im Laufe des Jahres 2024 werden wir GitHub-Issues stufenweise als Feedbackmechanismus für Inhalte abbauen und durch ein neues Feedbacksystem ersetzen. Weitere Informationen finden Sie unterFeedback senden und anzeigen für