SynapseSparkJobDefinitionActivity interface
Execute a atividade de trabalho do Spark.
- Extends
Propriedades
arguments | Argumentos especificados pelo usuário para SynapseSparkJobDefinitionActivity. |
class |
O identificador totalmente qualificado ou a classe principal que está no arquivo de definição principal, que substituirá o 'className' da definição de trabalho do Spark fornecida. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType). |
conf | Propriedades de configuração do Spark, que substituirão a 'configuração' da definição de trabalho do Spark que você fornece. |
configuration |
O tipo da configuração do spark. |
driver |
Número de núcleo e memória a serem usados para o driver alocado no pool do Spark especificado para o trabalho, que será usado para substituir 'driverCores' e 'driverMemory' da definição de trabalho do Spark que você fornece. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType). |
executor |
Número de núcleo e memória a serem usados para executores alocados no pool do Spark especificado para o trabalho, que será usado para substituir 'executorCores' e 'executorMemory' da definição de trabalho do Spark fornecida. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType). |
file | O arquivo principal usado para o trabalho, que substituirá o "arquivo" da definição de trabalho do Spark fornecida. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType). |
files | (Preterido. Use pythonCodeReference e filesV2) Arquivos adicionais usados para referência no arquivo de definição principal, que substituirá os 'arquivos' da definição de trabalho do Spark fornecida. |
filesV2 | Arquivos adicionais usados para referência no arquivo de definição principal, que substituirá os 'jars' e os 'arquivos' da definição de trabalho do Spark fornecida. |
num |
Número de executores a serem iniciados para esse trabalho, que substituirá os 'numExecutors' da definição de trabalho do Spark fornecida. Tipo: inteiro (ou Expressão com inteiro resultType). |
python |
Arquivos de código python adicionais usados para referência no arquivo de definição principal, que substituirá 'pyFiles' da definição de trabalho do Spark fornecida. |
scan |
Verificando subpastas da pasta raiz do arquivo de definição principal, esses arquivos serão adicionados como arquivos de referência. As pastas denominadas 'jars', 'pyFiles', 'files' ou 'archives' serão verificadas e o nome das pastas diferencia maiúsculas de minúsculas. Tipo: booliano (ou Expressão com resultType booleano). |
spark |
Propriedade de configuração do Spark. |
spark |
Referência de trabalho do Spark do Synapse. |
target |
O nome do pool de Big Data que será usado para executar o trabalho em lote do Spark, que substituirá o 'targetBigDataPool' da definição de trabalho do Spark fornecida. |
target |
A configuração do spark do trabalho do Spark. |
type | Discriminatório polimórfico, que especifica os diferentes tipos que esse objeto pode ser |
Propriedades herdadas
depends |
A atividade depende da condição. |
description | Descrição da atividade. |
linked |
Referência de serviço vinculado. |
name | Nome da atividade. |
on |
Resultado do status da atividade quando o estado é definido como Inativo. Essa é uma propriedade opcional e, se não for fornecida quando a atividade estiver inativa, o status será bem-sucedido por padrão. |
policy | Política de atividade. |
state | Estado da atividade. Essa é uma propriedade opcional e, se não for fornecida, o estado será Ativo por padrão. |
user |
Propriedades do usuário da atividade. |
Detalhes da propriedade
arguments
Argumentos especificados pelo usuário para SynapseSparkJobDefinitionActivity.
arguments?: any[]
Valor da propriedade
any[]
className
O identificador totalmente qualificado ou a classe principal que está no arquivo de definição principal, que substituirá o 'className' da definição de trabalho do Spark fornecida. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).
className?: any
Valor da propriedade
any
conf
Propriedades de configuração do Spark, que substituirão a 'configuração' da definição de trabalho do Spark que você fornece.
conf?: any
Valor da propriedade
any
configurationType
O tipo da configuração do spark.
configurationType?: string
Valor da propriedade
string
driverSize
Número de núcleo e memória a serem usados para o driver alocado no pool do Spark especificado para o trabalho, que será usado para substituir 'driverCores' e 'driverMemory' da definição de trabalho do Spark que você fornece. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).
driverSize?: any
Valor da propriedade
any
executorSize
Número de núcleo e memória a serem usados para executores alocados no pool do Spark especificado para o trabalho, que será usado para substituir 'executorCores' e 'executorMemory' da definição de trabalho do Spark fornecida. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).
executorSize?: any
Valor da propriedade
any
file
O arquivo principal usado para o trabalho, que substituirá o "arquivo" da definição de trabalho do Spark fornecida. Tipo: cadeia de caracteres (ou Expressão com cadeia de caracteres resultType).
file?: any
Valor da propriedade
any
files
(Preterido. Use pythonCodeReference e filesV2) Arquivos adicionais usados para referência no arquivo de definição principal, que substituirá os 'arquivos' da definição de trabalho do Spark fornecida.
files?: any[]
Valor da propriedade
any[]
filesV2
Arquivos adicionais usados para referência no arquivo de definição principal, que substituirá os 'jars' e os 'arquivos' da definição de trabalho do Spark fornecida.
filesV2?: any[]
Valor da propriedade
any[]
numExecutors
Número de executores a serem iniciados para esse trabalho, que substituirá os 'numExecutors' da definição de trabalho do Spark fornecida. Tipo: inteiro (ou Expressão com inteiro resultType).
numExecutors?: any
Valor da propriedade
any
pythonCodeReference
Arquivos de código python adicionais usados para referência no arquivo de definição principal, que substituirá 'pyFiles' da definição de trabalho do Spark fornecida.
pythonCodeReference?: any[]
Valor da propriedade
any[]
scanFolder
Verificando subpastas da pasta raiz do arquivo de definição principal, esses arquivos serão adicionados como arquivos de referência. As pastas denominadas 'jars', 'pyFiles', 'files' ou 'archives' serão verificadas e o nome das pastas diferencia maiúsculas de minúsculas. Tipo: booliano (ou Expressão com resultType booleano).
scanFolder?: any
Valor da propriedade
any
sparkConfig
Propriedade de configuração do Spark.
sparkConfig?: {[propertyName: string]: any}
Valor da propriedade
{[propertyName: string]: any}
sparkJob
Referência de trabalho do Spark do Synapse.
sparkJob: SynapseSparkJobReference
Valor da propriedade
targetBigDataPool
O nome do pool de Big Data que será usado para executar o trabalho em lote do Spark, que substituirá o 'targetBigDataPool' da definição de trabalho do Spark fornecida.
targetBigDataPool?: BigDataPoolParametrizationReference
Valor da propriedade
targetSparkConfiguration
A configuração do spark do trabalho do Spark.
targetSparkConfiguration?: SparkConfigurationParametrizationReference
Valor da propriedade
type
Discriminatório polimórfico, que especifica os diferentes tipos que esse objeto pode ser
type: "SparkJob"
Valor da propriedade
"SparkJob"
Detalhes das propriedades herdadas
dependsOn
A atividade depende da condição.
dependsOn?: ActivityDependency[]
Valor da propriedade
herdado deExecutionActivity.dependsOn
description
Descrição da atividade.
description?: string
Valor da propriedade
string
Herdado deExecutionActivity.description
linkedServiceName
Referência de serviço vinculado.
linkedServiceName?: LinkedServiceReference
Valor da propriedade
herdado deExecutionActivity.linkedServiceName
name
onInactiveMarkAs
Resultado do status da atividade quando o estado é definido como Inativo. Essa é uma propriedade opcional e, se não for fornecida quando a atividade estiver inativa, o status será bem-sucedido por padrão.
onInactiveMarkAs?: string
Valor da propriedade
string
herdado deExecutionActivity.onInactiveMarkAs
policy
Política de atividade.
policy?: ActivityPolicy
Valor da propriedade
herdado deExecutionActivity.policy
state
Estado da atividade. Essa é uma propriedade opcional e, se não for fornecida, o estado será Ativo por padrão.
state?: string
Valor da propriedade
string
herdado deExecutionActivity.state
userProperties
Propriedades do usuário da atividade.
userProperties?: UserProperty[]
Valor da propriedade
Herdado deExecutionActivity.userProperties