ml Pacote
Pacote
automl |
Contém aulas automatizadas de machine learning para o SDKv2 do Azure Machine Learning. As áreas principais incluem a gestão de tarefas autoML. |
constants |
Este pacote define as constantes utilizadas no SDKv2 do Azure Machine Learning. |
data_transfer | |
dsl | |
entities |
Contém entidades e objetos SDK para o SDKv2 do Azure Machine Learning. As áreas principais incluem a gestão de destinos de computação, a criação/gestão de áreas de trabalho e tarefas e a submissão/acesso de modelos, execuções e execução de saída/registo, etc. |
identity |
Contém a Configuração de Identidade para o SDKv2 do Azure Machine Learning. |
operations |
Contém operações suportadas para o SDKv2 do Azure Machine Learning. As operações são classes que contêm lógica para interagir com serviços de back-end, normalmente chamadas de operações geradas automaticamente. |
parallel | |
sweep |
Módulos
exceptions |
Contém o módulo de exceção no SDKv2 do Azure Machine Learning. Isto inclui enums e classes para exceções. |
Classes
AmlTokenConfiguration |
Configuração da identidade do Token do AzureML. |
Input |
Inicializar um objeto input. |
MLClient |
Uma classe de cliente para interagir com os serviços do Azure ML. Utilize este cliente para gerir recursos do Azure ML, como áreas de trabalho, trabalhos, modelos, etc. |
ManagedIdentityConfiguration |
Configuração de credenciais de Identidade Gerida. |
MpiDistribution |
Configuração de distribuição de MPI. |
Output | |
PyTorchDistribution |
Configuração de distribuição do PyTorch. |
RayDistribution |
Nota Esta é uma classe experimental e pode mudar em qualquer altura. Para obter mais informações, veja https://aka.ms/azuremlexperimental. Configuração de distribuição de raios. |
TensorFlowDistribution |
Configuração de distribuição do TensorFlow. |
UserIdentityConfiguration |
Configuração da identidade do utilizador. |
Funções
command
Cria um objeto de Comando que pode ser utilizado dentro de uma função dsl.pipeline ou utilizado como uma tarefa de Comando autónoma.
command(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, properties: Dict | None = None, display_name: str | None = None, command: str | None = None, experiment_name: str | None = None, environment: str | Environment | None = None, environment_variables: Dict | None = None, distribution: Dict | MpiDistribution | TensorFlowDistribution | PyTorchDistribution | RayDistribution | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, instance_count: int | None = None, instance_type: str | None = None, locations: List[str] | None = None, docker_args: str | None = None, shm_size: str | None = None, timeout: int | None = None, code: PathLike | str | None = None, identity: ManagedIdentityConfiguration | AmlTokenConfiguration | UserIdentityConfiguration | None = None, is_deterministic: bool = True, services: Dict[str, JobService | JupyterLabJobService | SshJobService | TensorBoardJobService | VsCodeJobService] | None = None, job_tier: str | None = None, priority: str | None = None, **kwargs) -> Command
Parâmetros
Dicionário de etiquetas. As etiquetas podem ser adicionadas, removidas e atualizadas. Predefinições para Nenhum.
O dicionário de propriedades da tarefa. Predefinições para Nenhum.
O nome a apresentar da tarefa. A predefinição é um nome gerado aleatoriamente.
O nome da experimentação em que a tarefa será criada. A predefinição é o nome do diretório atual.
- environment
- Optional[Union[str, Environment]]
O ambiente em que a tarefa será executada.
Um dicionário de nomes e valores de variáveis de ambiente. Estas variáveis de ambiente são definidas no processo em que o script de utilizador está a ser executado. Predefinições para Nenhum.
- distribution
- Optional[Union[dict, PyTorchDistribution, MpiDistribution, TensorFlowDistribution, RayDistribution]]
A configuração para tarefas distribuídas. Predefinições para Nenhum.
O destino de computação em que a tarefa será executada. A predefinição é a computação predefinida.
Um mapeamento de nomes de entrada para origens de dados de entrada utilizadas na tarefa. Predefinições para Nenhum.
Um mapeamento de nomes de saída para origens de dados de saída utilizadas na tarefa. Predefinições para Nenhum.
O número de instâncias ou nós a utilizar pelo destino de computação. A predefinição é 1.
Argumentos adicionais para passar para o comando de execução do Docker. Isto substituiria quaisquer parâmetros que já tenham sido definidos pelo sistema ou nesta secção. Este parâmetro só é suportado para tipos de computação do Azure ML. Predefinições para Nenhum.
O tamanho do bloco de memória partilhado do contentor do Docker. Deve estar no formato de (número)(unidade) em que o número tem de ser superior a 0 e a unidade pode ser um dos b(bytes), k(kilobytes), m(megabytes) ou g(gigabytes).
O código fonte para executar a tarefa. Pode ser um caminho local ou "http:", "https:" ou um url "azureml:" que aponta para uma localização remota.
- identity
- Optional[Union[ ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]]
A identidade que a tarefa de comando utilizará durante a execução na computação.
- is_deterministic
- bool
Especifica se o Comando irá devolver o mesmo resultado dada a mesma entrada. Predefinições para Verdadeiro. Quando Verdadeiro, se um Componente de Comando for determinista e tiver sido executado anteriormente na área de trabalho atual com as mesmas entradas e definições, reutilizará os resultados de uma tarefa submetida anteriormente quando utilizado como nó ou passo num pipeline. Nesse cenário, não serão utilizados recursos de computação.
- services
- Optional[dict[str, Union[JobService, JupyterLabJobService, SshJobService, TensorBoardJobService, VsCodeJobService]]]
Os serviços interativos do nó. Predefinições para Nenhum. Este é um parâmetro experimental e pode ser alterado em qualquer altura. Para obter mais informações, veja https://aka.ms/azuremlexperimental.
O escalão de trabalho. Os valores aceites são "Spot", "Basic", "Standard" ou "Premium".
A prioridade da tarefa na computação. Os valores aceites são "baixo", "médio" e "alto". A predefinição é "média".
Devoluções
Um objeto de Comando.
Tipo de retorno
Exemplos
Criar uma Tarefa de Comando com o método do construtor de comandos.
from azure.ai.ml import Input, Output, command
train_func = command(
environment="AzureML-sklearn-1.0-ubuntu20.04-py38-cpu:33",
command='echo "hello world"',
distribution={"type": "Pytorch", "process_count_per_instance": 2},
inputs={
"training_data": Input(type="uri_folder"),
"max_epochs": 20,
"learning_rate": 1.8,
"learning_rate_schedule": "time-based",
},
outputs={"model_output": Output(type="uri_folder")},
)
load_batch_deployment
Construa um objeto de implementação em lote a partir do ficheiro yaml.
load_batch_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> BatchDeployment
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
A origem yaml local de um objeto de implementação de lote. Tem de ser um caminho para um ficheiro local ou um ficheiro já aberto. Se a origem for um caminho, será aberta e lida. É gerada uma exceção se o ficheiro não existir. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente e será gerada uma exceção se o ficheiro não for legível.
- relative_origin
- str
A origem a utilizar ao deduzir as localizações relativas dos ficheiros referenciados no yaml analisado. A predefinição é o diretório da origem introduzido se for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Campos a substituir por cima do ficheiro yaml. O formato é [{"field1": "value1"}, {"field2": "value2"}]
Devoluções
Objeto de implementação de lote construído.
Tipo de retorno
load_batch_endpoint
Construa um objeto de ponto final de lote a partir do ficheiro yaml.
load_batch_endpoint(source: str | PathLike | IO, relative_origin: str | None = None, **kwargs) -> BatchEndpoint
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
A origem yaml local de um objeto de ponto final de lote. Tem de ser um caminho para um ficheiro local ou um ficheiro já aberto. Se a origem for um caminho, será aberta e lida. É gerada uma exceção se o ficheiro não existir. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente e será gerada uma exceção se o ficheiro não for legível.
- relative_origin
- str
A origem a utilizar ao deduzir as localizações relativas dos ficheiros referenciados no yaml analisado. A predefinição é o diretório da origem introduzido se for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Campos a substituir por cima do ficheiro yaml. O formato é [{"field1": "value1"}, {"field2": "value2"}]
Devoluções
Objeto de ponto final de lote construído.
Tipo de retorno
load_component
Carregar o componente de local ou remoto para uma função de componente.
load_component(source: str | PathLike | IO | None = None, *, relative_origin: str | None = None, **kwargs) -> CommandComponent | ParallelComponent | PipelineComponent
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
A origem yaml local de um componente. Tem de ser um caminho para um ficheiro local ou um ficheiro já aberto. Se a origem for um caminho, será aberta e lida. É gerada uma exceção se o ficheiro não existir. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente e será gerada uma exceção se o ficheiro não for legível.
- relative_origin
- str
A origem a utilizar ao deduzir as localizações relativas dos ficheiros referenciados no yaml analisado. A predefinição é o diretório da origem introduzido se for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Campos a substituir por cima do ficheiro yaml. O formato é [{"field1": "value1"}, {"field2": "value2"}]
Devoluções
Um objeto Componente
Tipo de retorno
Exemplos
Carregar um objeto Componente a partir de um ficheiro YAML, substituir a versão para "1.0.2" e registá-lo remotamente.
from azure.ai.ml import load_component
component = load_component(
source="./sdk/ml/azure-ai-ml/tests/test_configs/components/helloworld_component.yml",
params_override=[{"version": "1.0.2"}],
)
registered_component = ml_client.components.create_or_update(component)
load_compute
Construa um objeto de computação a partir de um ficheiro yaml.
load_compute(source: str | PathLike | IO, *, relative_origin: str | None = None, params_override: List[Dict[str, str]] | None = None, **kwargs) -> Compute
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
A origem yaml local de uma computação. Tem de ser um caminho para um ficheiro local ou um ficheiro já aberto. Se a origem for um caminho, será aberta e lida. É gerada uma exceção se o ficheiro não existir. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente e será gerada uma exceção se o ficheiro não for legível.
A origem a utilizar ao deduzir as localizações relativas dos ficheiros referenciados no yaml analisado. A predefinição é o diretório da origem introduzido se for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Campos a substituir por cima do ficheiro yaml. O formato é [{"field1": "value1"}, {"field2": "value2"}]
Devoluções
Objeto de computação carregado.
Tipo de retorno
Exemplos
Carregar um objeto de Computação a partir de um ficheiro YAML e substituir a respetiva descrição.
from azure.ai.ml import load_compute
compute = load_compute(
"../tests/test_configs/compute/compute-vm.yaml",
params_override=[{"description": "loaded from compute-vm.yaml"}],
)
load_data
Construir um objeto de dados a partir do ficheiro yaml.
load_data(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Data
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
A origem yaml local de um objeto de dados. Tem de ser um caminho para um ficheiro local ou um ficheiro já aberto. Se a origem for um caminho, será aberta e lida. É gerada uma exceção se o ficheiro não existir. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente e será gerada uma exceção se o ficheiro não for legível.
- relative_origin
- str
A origem a utilizar ao deduzir as localizações relativas dos ficheiros referenciados no yaml analisado. A predefinição é o diretório da origem introduzido se for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Campos a substituir por cima do ficheiro yaml. O formato é [{"field1": "value1"}, {"field2": "value2"}]
Devoluções
Objeto Data ou DataImport construído.
Tipo de retorno
Exceções
Gerado se os dados não puderem ser validados com êxito. Os detalhes serão fornecidos na mensagem de erro.
load_datastore
Construa um objeto arquivo de dados a partir de um ficheiro yaml.
load_datastore(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Datastore
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
A origem yaml local de um arquivo de dados. Tem de ser um caminho para um ficheiro local ou um ficheiro já aberto. Se a origem for um caminho, será aberta e lida. É gerada uma exceção se o ficheiro não existir. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente e será gerada uma exceção se o ficheiro não for legível.
- relative_origin
- str
A origem a utilizar ao deduzir as localizações relativas dos ficheiros referenciados no yaml analisado. A predefinição é o diretório da origem introduzido se for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Campos a substituir por cima do ficheiro yaml. O formato é [{"field1": "value1"}, {"field2": "value2"}]
Devoluções
Objeto arquivo de dados carregado.
Tipo de retorno
Exceções
Gerado se o Datastore não puder ser validado com êxito. Os detalhes serão fornecidos na mensagem de erro.
load_environment
Construa um objeto de ambiente a partir do ficheiro yaml.
load_environment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Environment
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
A origem yaml local de um ambiente. Tem de ser um caminho para um ficheiro local ou um ficheiro já aberto. Se a origem for um caminho, será aberta e lida. É gerada uma exceção se o ficheiro não existir. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente e será gerada uma exceção se o ficheiro não for legível.
- relative_origin
- str
A origem a utilizar ao deduzir as localizações relativas dos ficheiros referenciados no yaml analisado. A predefinição é o diretório da origem introduzido se for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Campos a substituir por cima do ficheiro yaml. O formato é [{"field1": "value1"}, {"field2": "value2"}]
Devoluções
Objeto de ambiente construído.
Tipo de retorno
Exceções
Gerado se o Ambiente não puder ser validado com êxito. Os detalhes serão fornecidos na mensagem de erro.
load_job
Constrói um objeto tarefa a partir de um ficheiro YAML.
load_job(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Job
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Um caminho para um ficheiro YAML local ou um objeto de ficheiro já aberto que contenha uma configuração de tarefa. Se a origem for um caminho, será aberta e lida. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente.
O diretório raiz do YAML. Este diretório será utilizado como a origem para deduzir as localizações relativas dos ficheiros referenciados no YAML analisado. A predefinição é o mesmo diretório que a origem se a origem for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Devoluções
Um objeto de Tarefa carregado.
Tipo de retorno
Exceções
Gerado se a tarefa não puder ser validada com êxito. Os detalhes serão fornecidos na mensagem de erro.
Exemplos
Carregar uma Tarefa a partir de um ficheiro de configuração YAML.
from azure.ai.ml import load_job
job = load_job(source="./sdk/ml/azure-ai-ml/tests/test_configs/command_job/command_job_test_local_env.yml")
load_model
Constrói um objeto Modelo a partir de um ficheiro YAML.
load_model(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Model
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Um caminho para um ficheiro YAML local ou um objeto de ficheiro já aberto que contenha uma configuração de tarefa. Se a origem for um caminho, será aberta e lida. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente.
O diretório raiz do YAML. Este diretório será utilizado como a origem para deduzir as localizações relativas dos ficheiros referenciados no YAML analisado. A predefinição é o mesmo diretório que a origem se a origem for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Devoluções
Um objeto de Modelo carregado.
Tipo de retorno
Exceções
Gerado se a tarefa não puder ser validada com êxito. Os detalhes serão fornecidos na mensagem de erro.
Exemplos
Carregar um Modelo a partir de um ficheiro de configuração YAML, substituindo os parâmetros de nome e versão.
from azure.ai.ml import load_model
model = load_model(
source="./sdk/ml/azure-ai-ml/tests/test_configs/model/model_with_stage.yml",
params_override=[{"name": "new_model_name"}, {"version": "1"}],
)
load_model_package
Nota
Este é um método experimental e pode ser alterado em qualquer altura. Para obter mais informações, veja https://aka.ms/azuremlexperimental.
Constrói um objeto ModelPackage a partir de um ficheiro YAML.
load_model_package(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> ModelPackage
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
Um caminho para um ficheiro YAML local ou um objeto de ficheiro já aberto que contenha uma configuração de tarefa. Se a origem for um caminho, será aberta e lida. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente.
O diretório raiz do YAML. Este diretório será utilizado como a origem para deduzir as localizações relativas dos ficheiros referenciados no YAML analisado. A predefinição é o mesmo diretório que a origem se a origem for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Devoluções
Um objeto ModelPackage carregado.
Tipo de retorno
Exceções
Gerado se a tarefa não puder ser validada com êxito. Os detalhes serão fornecidos na mensagem de erro.
Exemplos
Carregar um ModelPackage a partir de um ficheiro de configuração YAML.
from azure.ai.ml import load_model_package
model_package = load_model_package(
"./sdk/ml/azure-ai-ml/tests/test_configs/model_package/model_package_simple.yml"
)
load_online_deployment
Construa um objeto de implementação online a partir do ficheiro yaml.
load_online_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineDeployment
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
A origem yaml local de um objeto de implementação online. Tem de ser um caminho para um ficheiro local ou um ficheiro já aberto. Se a origem for um caminho, será aberta e lida. É gerada uma exceção se o ficheiro não existir. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente e será gerada uma exceção se o ficheiro não for legível.
- relative_origin
- str
A origem a utilizar ao deduzir as localizações relativas dos ficheiros referenciados no yaml analisado. A predefinição é o diretório da origem introduzido se for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Campos a substituir por cima do ficheiro yaml. O formato é [{"field1": "value1"}, {"field2": "value2"}]
Devoluções
Objeto de implementação online construído.
Tipo de retorno
Exceções
Gerado se a Implementação Online não puder ser validada com êxito. Os detalhes serão fornecidos na mensagem de erro.
load_online_endpoint
Construa um objeto de ponto final online a partir do ficheiro yaml.
load_online_endpoint(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineEndpoint
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
A origem yaml local de um objeto de ponto final online. Tem de ser um caminho para um ficheiro local ou um ficheiro já aberto. Se a origem for um caminho, será aberta e lida. É gerada uma exceção se o ficheiro não existir. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente e será gerada uma exceção se o ficheiro não for legível.
- relative_origin
- str
A origem a utilizar ao deduzir as localizações relativas dos ficheiros referenciados no yaml analisado. A predefinição é o diretório da origem introduzido se for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Campos a substituir por cima do ficheiro yaml. O formato é [{"field1": "value1"}, {"field2": "value2"}]
Devoluções
Objeto de ponto final online construído.
Tipo de retorno
Exceções
Gerado se o Ponto Final Online não puder ser validado com êxito. Os detalhes serão fornecidos na mensagem de erro.
load_registry
Carregar um objeto de registo a partir de um ficheiro yaml.
load_registry(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Registry
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
A origem yaml local de um registo. Tem de ser um caminho para um ficheiro local ou um ficheiro já aberto. Se a origem for um caminho, será aberta e lida. É gerada uma exceção se o ficheiro não existir. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente e será gerada uma exceção se o ficheiro não for legível.
- relative_origin
- str
A origem a utilizar ao deduzir as localizações relativas dos ficheiros referenciados no yaml analisado. A predefinição é o diretório da origem introduzido se for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Campos a substituir por cima do ficheiro yaml. O formato é [{"field1": "value1"}, {"field2": "value2"}]
Devoluções
Objeto de registo carregado.
Tipo de retorno
load_workspace
Carregar um objeto de área de trabalho a partir de um ficheiro yaml.
load_workspace(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Workspace
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
A origem yaml local de uma área de trabalho. Tem de ser um caminho para um ficheiro local ou um ficheiro já aberto. Se a origem for um caminho, será aberta e lida. É gerada uma exceção se o ficheiro não existir. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente e será gerada uma exceção se o ficheiro não for legível.
- relative_origin
- str
A origem a utilizar ao deduzir as localizações relativas dos ficheiros referenciados no yaml analisado. A predefinição é o diretório da origem introduzido se for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Campos a substituir por cima do ficheiro yaml. O formato é [{"field1": "value1"}, {"field2": "value2"}]
Devoluções
Objeto de área de trabalho carregado.
Tipo de retorno
load_workspace_connection
Construa um objeto de ligação de área de trabalho a partir do ficheiro yaml.
load_workspace_connection(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceConnection
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
A origem yaml local de um objeto de ligação de área de trabalho. Tem de ser um caminho para um ficheiro local ou um ficheiro já aberto. Se a origem for um caminho, será aberta e lida. É gerada uma exceção se o ficheiro não existir. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente e será gerada uma exceção se o ficheiro não for legível.
- relative_origin
- str
A origem a utilizar ao deduzir as localizações relativas dos ficheiros referenciados no yaml analisado. A predefinição é o diretório da origem introduzido se for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Campos a substituir por cima do ficheiro yaml. O formato é [{"field1": "value1"}, {"field2": "value2"}]
Devoluções
Objeto de ligação de área de trabalho construído.
Tipo de retorno
load_workspace_hub
Nota
Este é um método experimental e pode ser alterado em qualquer altura. Para obter mais informações, veja https://aka.ms/azuremlexperimental.
Carregar um objeto do WorkspaceHub a partir de um ficheiro yaml.
load_workspace_hub(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceHub
Parâmetros
- source
- Union[<xref:PathLike>, str, TextIOWrapper]
A origem yaml local de um WorkspaceHub. Tem de ser um caminho para um ficheiro local ou um ficheiro já aberto. Se a origem for um caminho, será aberta e lida. É gerada uma exceção se o ficheiro não existir. Se a origem for um ficheiro aberto, o ficheiro será lido diretamente e será gerada uma exceção se o ficheiro não for legível.
- relative_origin
- str
A origem a utilizar ao deduzir as localizações relativas dos ficheiros referenciados no yaml analisado. A predefinição é o diretório da origem introduzido se for uma entrada de caminho de ficheiro ou ficheiro. A predefinição é "./" se a origem for uma entrada de fluxo sem valor de nome.
Campos a substituir por cima do ficheiro yaml. O formato é [{"field1": "value1"}, {"field2": "value2"}]
Devoluções
Objeto Loaded WorkspaceHub.
Tipo de retorno
spark
Cria um objeto spark que pode ser utilizado dentro de uma função dsl.pipeline ou utilizado como uma tarefa autónoma do Spark.
spark(*, experiment_name: str | None = None, name: str | None = None, display_name: str | None = None, description: str | None = None, tags: Dict | None = None, code: PathLike | str | None = None, entry: Dict[str, str] | SparkJobEntry | None = None, py_files: List[str] | None = None, jars: List[str] | None = None, files: List[str] | None = None, archives: List[str] | None = None, identity: Dict[str, str] | ManagedIdentity | AmlToken | UserIdentity | None = None, driver_cores: int | None = None, driver_memory: str | None = None, executor_cores: int | None = None, executor_memory: str | None = None, executor_instances: int | None = None, dynamic_allocation_enabled: bool | None = None, dynamic_allocation_min_executors: int | None = None, dynamic_allocation_max_executors: int | None = None, conf: Dict[str, str] | None = None, environment: str | Environment | None = None, inputs: Dict | None = None, outputs: Dict | None = None, args: str | None = None, compute: str | None = None, resources: Dict | SparkResourceConfiguration | None = None, **kwargs) -> Spark
Parâmetros
O dicionário de etiquetas para a tarefa. As etiquetas podem ser adicionadas, removidas e atualizadas. A predefinição é Nenhuma.
- code
O código fonte para executar a tarefa. Pode ser um caminho local ou "http:", "https:" ou um URL "azureml:" a apontar para uma localização remota.
A lista de ficheiros .zip, .egg ou .py a colocar nas aplicações PYTHONPATH para Python. A predefinição é Nenhuma.
A lista de . Ficheiros JAR a incluir nos caminhos de classe do controlador e do executor. A predefinição é Nenhuma.
A lista de ficheiros a colocar no diretório de trabalho de cada executor. A predefinição é Nenhuma.
A lista de arquivos a extrair para o diretório de trabalho de cada executor. A predefinição é Nenhuma.
- identity
- Optional[Union[ dict[str, str], ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]]
A identidade que a tarefa do Spark utilizará durante a execução na computação.
O número de núcleos a utilizar para o processo do controlador, apenas no modo de cluster.
A quantidade de memória a utilizar para o processo do controlador, formatada como cadeias com um sufixo de unidade de tamanho ("k", "m", "g" ou "t") (por exemplo, "512m", "2g").
A quantidade de memória a utilizar por processo do executor, formatada como cadeias com um sufixo de unidade de tamanho ("k", "m", "g" ou "t") (por exemplo, "512m", "2g").
Se pretende utilizar a alocação de recursos dinâmicos, o que dimensiona o número de executores registados nesta aplicação para cima e para baixo com base na carga de trabalho.
O limite inferior para o número de executores se a alocação dinâmica estiver ativada.
O limite superior para o número de executores se a alocação dinâmica estiver ativada.
Um dicionário com chave e valores de configurações predefinidos do Spark. A predefinição é Nenhuma.
- environment
- Optional[Union[str, Environment]]
O ambiente do Azure ML no qual executar a tarefa.
Um mapeamento de nomes de entrada para dados de entrada utilizados na tarefa. A predefinição é Nenhuma.
Um mapeamento de nomes de saída para dados de saída utilizados na tarefa. A predefinição é Nenhuma.
- resources
- Optional[Union[dict, SparkResourceConfiguration]]
A configuração do recurso de computação para a tarefa.
Devoluções
Um objeto spark.
Tipo de retorno
Exemplos
Criar um pipeline do Spark com o decorador de pipelines DSL
from azure.ai.ml import Input, Output, dsl, spark
from azure.ai.ml.constants import AssetTypes, InputOutputModes
# define the spark task
first_step = spark(
code="/src",
entry={"file": "add_greeting_column.py"},
py_files=["utils.zip"],
files=["my_files.txt"],
driver_cores=2,
driver_memory="1g",
executor_cores=1,
executor_memory="1g",
executor_instances=1,
inputs=dict(
file_input=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT)
),
args="--file_input ${{inputs.file_input}}",
resources={"instance_type": "standard_e4s_v3", "runtime_version": "3.2.0"},
)
second_step = spark(
code="/src",
entry={"file": "count_by_row.py"},
jars=["scala_project.jar"],
files=["my_files.txt"],
driver_cores=2,
driver_memory="1g",
executor_cores=1,
executor_memory="1g",
executor_instances=1,
inputs=dict(
file_input=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT)
),
outputs=dict(output=Output(type="uri_folder", mode=InputOutputModes.DIRECT)),
args="--file_input ${{inputs.file_input}} --output ${{outputs.output}}",
resources={"instance_type": "standard_e4s_v3", "runtime_version": "3.2.0"},
)
# Define pipeline
@dsl.pipeline(description="submit a pipeline with spark job")
def spark_pipeline_from_builder(data):
add_greeting_column = first_step(file_input=data)
count_by_row = second_step(file_input=data)
return {"output": count_by_row.outputs.output}
pipeline = spark_pipeline_from_builder(
data=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT),
)
Azure SDK for Python