Spark Classe
Classe base para o nó spark, utilizada para o consumo de versões de componentes do Spark.
Não deve instanciar esta classe diretamente. Em vez disso, deve criá-la a partir da função de construtor: spark.
] :p aram outputs: um mapeamento de nomes de saída para origens de dados de saída utilizadas na tarefa. :type outputs: Dict[str, Union[str, ~azure.ai.ml.Output]] :p aram args: Os argumentos para a tarefa. :type args: str :p aram compute: o recurso de computação em que a tarefa é executada. :type compute: str :p aram resources: The compute resource configuration for the job. :type resources: Union[Dict, ~azure.ai.ml.entities.SparkResourceConfiguration] :p aram entry: The file or class entry point. :type entry: Dict[str, str] :p aram py_files: a lista de ficheiros .zip, .egg ou .py a colocar nas aplicações PYTHONPATH para Python. :type py_files: List[str] :p aram jars: The list of . Ficheiros JAR a incluir nos caminhos de classe do controlador e do executor. :type jars: List[str] :p aram files: The list of files to be placed in the working directory of each executor. :type files: List[str] :p aram archives: The list of archives to be extracted into the working directory of each executor. :type archives: List[str]
- Herança
-
azure.ai.ml.entities._builders.base_node.BaseNodeSparkazure.ai.ml.entities._job.spark_job_entry_mixin.SparkJobEntryMixinSpark
Construtor
Spark(*, component: str | SparkComponent, identity: Dict[str, str] | ManagedIdentityConfiguration | AmlTokenConfiguration | UserIdentityConfiguration | None = None, driver_cores: int | None = None, driver_memory: str | None = None, executor_cores: int | None = None, executor_memory: str | None = None, executor_instances: int | None = None, dynamic_allocation_enabled: bool | None = None, dynamic_allocation_min_executors: int | None = None, dynamic_allocation_max_executors: int | None = None, conf: Dict[str, str] | None = None, inputs: Dict[str, NodeOutput | Input | str | bool | int | float | Enum] | None = None, outputs: Dict[str, str | Output] | None = None, compute: str | None = None, resources: Dict | SparkResourceConfiguration | None = None, entry: Dict[str, str] | SparkJobEntry | None = None, py_files: List[str] | None = None, jars: List[str] | None = None, files: List[str] | None = None, archives: List[str] | None = None, args: str | None = None, **kwargs)
Parâmetros
- component
- Union[str, SparkComponent]
O ID ou a instância do componente ou tarefa do Spark a executar durante o passo.
- identity
- Union[ Dict[str, str], ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]
A identidade que a tarefa do Spark irá utilizar durante a execução na computação.
- driver_cores
- int
O número de núcleos a utilizar para o processo do controlador, apenas no modo de cluster.
- driver_memory
- str
A quantidade de memória a utilizar para o processo do controlador, formatada como cadeias com um sufixo de unidade de tamanho ("k", "m", "g" ou "t") (por exemplo, "512m", "2g").
- executor_memory
- str
A quantidade de memória a utilizar por processo do executor, formatada como cadeias com um sufixo de unidade de tamanho ("k", "m", "g" ou "t") (por exemplo, "512m", "2g").
- dynamic_allocation_enabled
- bool
Quer utilize a alocação de recursos dinâmicos, o que dimensiona o número de executores registados nesta aplicação para cima e para baixo com base na carga de trabalho.
- dynamic_allocation_min_executors
- int
O limite inferior para o número de executores se a alocação dinâmica estiver ativada.
- dynamic_allocation_max_executors
- int
O limite superior para o número de executores se a alocação dinâmica estiver ativada.
Um dicionário com chave e valores de configurações do Spark predefinidos.
- inputs
- Dict[str, Union[ <xref:azure.ai.ml.entities._job.pipeline._io.NodeOutput>, Input, str, bool, int, float, <xref:Enum>, ]
Um mapeamento de nomes de entrada para origens de dados de entrada utilizadas na tarefa.
Métodos
clear | |
copy | |
dump |
Captura o conteúdo da tarefa num ficheiro no formato YAML. |
fromkeys |
Crie um novo dicionário com chaves de iterável e valores definidos como valor. |
get |
Devolva o valor da chave se a chave estiver no dicionário, caso contrário, predefinição. |
items | |
keys | |
pop |
Se a chave não for encontrada, devolva a predefinição se for dada; caso contrário, crie um KeyError. |
popitem |
Remova e devolva um par (chave, valor) como uma cadeia de 2 cadeias de identificação. Os pares são devolvidos por ordem LIFO (último, primeiro a sair). Aumenta o KeyError se o ditado estiver vazio. |
setdefault |
Insira a chave com um valor predefinido se a chave não estiver no dicionário. Devolver o valor da chave se a chave estiver no dicionário, caso contrário, predefinição. |
update |
Se E estiver presente e tiver um método .keys(), então faz: para k em E: D[k] = E[k] Se E estiver presente e não tiver um método .keys(), então faz: para k, v em E: D[k] = v Em ambos os casos, este é seguido por: para k em F: D[k] = F[k] |
values |
clear
clear() -> None. Remove all items from D.
copy
copy() -> a shallow copy of D
dump
Captura o conteúdo da tarefa num ficheiro no formato YAML.
dump(dest: str | PathLike | IO, **kwargs) -> None
Parâmetros
O caminho local ou o fluxo de ficheiros para o qual escrever o conteúdo YAML. Se dest for um caminho de ficheiro, será criado um novo ficheiro. Se dest for um ficheiro aberto, o ficheiro será escrito diretamente.
- kwargs
- dict
Argumentos adicionais para passar para o serializador YAML.
Exceções
Gerado se dest é um caminho de ficheiro e o ficheiro já existe.
Gerado se o dest for um ficheiro aberto e o ficheiro não for gravável.
fromkeys
Crie um novo dicionário com chaves de iterável e valores definidos como valor.
fromkeys(value=None, /)
Parâmetros
- type
- iterable
- value
get
Devolva o valor da chave se a chave estiver no dicionário, caso contrário, predefinição.
get(key, default=None, /)
Parâmetros
- key
- default
items
items() -> a set-like object providing a view on D's items
keys
keys() -> a set-like object providing a view on D's keys
pop
Se a chave não for encontrada, devolva a predefinição se for dada; caso contrário, crie um KeyError.
pop(k, [d]) -> v, remove specified key and return the corresponding value.
popitem
Remova e devolva um par (chave, valor) como uma cadeia de 2 cadeias de identificação.
Os pares são devolvidos por ordem LIFO (último, primeiro a sair). Aumenta o KeyError se o ditado estiver vazio.
popitem()
setdefault
Insira a chave com um valor predefinido se a chave não estiver no dicionário.
Devolver o valor da chave se a chave estiver no dicionário, caso contrário, predefinição.
setdefault(key, default=None, /)
Parâmetros
- key
- default
update
Se E estiver presente e tiver um método .keys(), então faz: para k em E: D[k] = E[k] Se E estiver presente e não tiver um método .keys(), então faz: para k, v em E: D[k] = v Em ambos os casos, este é seguido por: para k em F: D[k] = F[k]
update([E], **F) -> None. Update D from dict/iterable E and F.
values
values() -> an object providing a view on D's values
Atributos
base_path
code
O caminho local ou remoto que aponta para o código fonte.
Tipo de retorno
component
O ID ou a instância do componente ou tarefa do Spark a executar durante o passo.
Tipo de retorno
creation_context
O contexto de criação do recurso.
Devoluções
Os metadados de criação do recurso.
Tipo de retorno
entry
id
O ID do recurso.
Devoluções
O ID global do recurso, um ID do Azure Resource Manager (ARM).
Tipo de retorno
identity
A identidade que a tarefa do Spark irá utilizar durante a execução na computação.
Tipo de retorno
inputs
Obtenha as entradas do objeto.
Devoluções
Um dicionário que contém as entradas do objeto.
Tipo de retorno
log_files
Ficheiros de saída da tarefa.
Devoluções
O dicionário de nomes de registo e URLs.
Tipo de retorno
name
outputs
Obtenha as saídas do objeto.
Devoluções
Um dicionário que contém as saídas do objeto.
Tipo de retorno
resources
status
O estado da tarefa.
Os valores comuns devolvidos incluem "Running", "Completed" e "Failed". Todos os valores possíveis são:
NotStarted - este é um estado temporário em que os objetos Run do lado do cliente estão antes da submissão da cloud.
A iniciar – a Execução começou a ser processada na cloud. O autor da chamada tem um ID de execução neste momento.
Aprovisionamento – a computação a pedido está a ser criada para uma determinada submissão de tarefas.
Preparação – o ambiente de execução está a ser preparado e está numa de duas fases:
Compilação de imagens do Docker
configuração do ambiente conda
Em fila – a tarefa está em fila de espera no destino de computação. Por exemplo, no BatchAI, a tarefa está num estado em fila
enquanto aguarda que todos os nós pedidos estejam prontos.
Em execução – a tarefa começou a ser executada no destino de computação.
Finalização – a execução do código do utilizador foi concluída e a execução encontra-se em fases de pós-processamento.
CancelRequested - Foi pedido o cancelamento para a tarefa.
Concluído – a execução foi concluída com êxito. Isto inclui a execução do código de utilizador e a execução
fases de pós-processamento.
Falha - A execução falhou. Normalmente, a propriedade Erro numa execução irá fornecer detalhes sobre o motivo.
Cancelado – segue um pedido de cancelamento e indica que a execução foi cancelada com êxito.
NotResponding – para execuções com Heartbeats ativados, não foi enviado nenhum heartbeat recentemente.
Devoluções
Estado da tarefa.
Tipo de retorno
studio_url
Ponto final do Azure ML Studio.
Devoluções
O URL para a página de detalhes da tarefa.
Tipo de retorno
type
CODE_ID_RE_PATTERN
CODE_ID_RE_PATTERN = re.compile('\\/subscriptions\\/(?P<subscription>[\\w,-]+)\\/resourceGroups\\/(?P<resource_group>[\\w,-]+)\\/providers\\/Microsoft\\.MachineLearningServices\\/workspaces\\/(?P<workspace>[\\w,-]+)\\/codes\\/(?P<co)
Azure SDK for Python