data_transfer Pacote
Classes
DataTransferCopy |
Nota Esta é uma classe experimental e pode mudar em qualquer altura. Para obter mais informações, veja https://aka.ms/azuremlexperimental. Classe base para o nó de cópia de transferência de dados. Não deve instanciar esta classe diretamente. Em vez disso, deve criar a partir da função construtora: copy_data. |
DataTransferCopyComponent |
Nota Esta é uma classe experimental e pode mudar em qualquer altura. Para obter mais informações, veja https://aka.ms/azuremlexperimental. DataTransfer copy component version, utilizado para definir um componente de cópia de transferência de dados. |
DataTransferExport |
Nota Esta é uma classe experimental e pode mudar em qualquer altura. Para obter mais informações, veja https://aka.ms/azuremlexperimental. Classe base para o nó de exportação de transferência de dados. Não deve instanciar esta classe diretamente. Em vez disso, deve criar a partir da função construtora: export_data. |
DataTransferExportComponent |
Nota Esta é uma classe experimental e pode mudar em qualquer altura. Para obter mais informações, veja https://aka.ms/azuremlexperimental. DataTransfer, versão do componente de exportação, utilizada para definir um componente de exportação de transferência de dados. |
DataTransferImport |
Nota Esta é uma classe experimental e pode mudar em qualquer altura. Para obter mais informações, veja https://aka.ms/azuremlexperimental. Classe base para o nó de importação de transferência de dados. Não deve instanciar esta classe diretamente. Em vez disso, deve criar a partir da função construtora: import_data. |
DataTransferImportComponent |
Nota Esta é uma classe experimental e pode mudar em qualquer altura. Para obter mais informações, veja https://aka.ms/azuremlexperimental. DataTransfer a versão do componente de importação, utilizada para definir um componente de importação de transferência de dados. |
Database |
Defina uma classe de base de dados para um Componente DataTransfer ou Tarefa. |
FileSystem |
Defina uma classe de sistema de ficheiros de um Componente ou Tarefa dataTransfer. por exemplo, source_s3 = FileSystem(path=s3://my_bucket/my_folder', connection='azureml:my_s3_connection') |
Funções
copy_data
Nota
Este é um método experimental e pode ser alterado em qualquer altura. Para obter mais informações, veja https://aka.ms/azuremlexperimental.
Crie um objeto DataTransferCopy que pode ser utilizado dentro de dsl.pipeline como uma função.
copy_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, is_deterministic: bool = True, data_copy_mode: str | None = None, **kwargs: Any) -> DataTransferCopy
Parâmetros Só de Palavra-Chave
Name | Description |
---|---|
name
|
O nome da tarefa. |
description
|
Descrição da tarefa. |
tags
|
Dicionário de etiquetas. As etiquetas podem ser adicionadas, removidas e atualizadas. |
display_name
|
Nome a apresentar da tarefa. |
experiment_name
|
Nome da experimentação em que a tarefa será criada. |
compute
|
O recurso de computação em que a tarefa é executada. |
inputs
|
Mapeamento de enlaces de dados de entradas utilizados na tarefa. |
outputs
|
Mapeamento de saídas de enlaces de dados utilizados na tarefa. |
is_deterministic
|
Especifique se o comando devolverá a mesma saída dada a mesma entrada. Se um comando (componente) for determinista, quando o utilizar como nó/passo num pipeline, reutilizará os resultados de uma tarefa submetida anterior na área de trabalho atual que tem as mesmas entradas e definições. Neste caso, este passo não utilizará nenhum recurso de computação. A predefinição é Verdadeiro, especifique is_deterministic=Falso se quiser evitar esse comportamento de reutilização. |
data_copy_mode
|
modo de cópia de dados na tarefa de cópia, o valor possível é "merge_with_overwrite", "fail_if_conflict". |
Devoluções
Tipo | Description |
---|---|
Um objeto DataTransferCopy. |
export_data
Nota
Este é um método experimental e pode ser alterado em qualquer altura. Para obter mais informações, veja https://aka.ms/azuremlexperimental.
Crie um objeto DataTransferExport que pode ser utilizado dentro de dsl.pipeline.
export_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, sink: Dict | Database | FileSystem | None = None, inputs: Dict | None = None, **kwargs: Any) -> DataTransferExport
Parâmetros Só de Palavra-Chave
Name | Description |
---|---|
name
|
O nome da tarefa. |
description
|
Descrição da tarefa. |
tags
|
Dicionário de etiquetas. As etiquetas podem ser adicionadas, removidas e atualizadas. |
display_name
|
Nome a apresentar da tarefa. |
experiment_name
|
Nome da experimentação em que a tarefa será criada. |
compute
|
O recurso de computação em que a tarefa é executada. |
sink
|
O sink de dados externos e bases de dados. |
inputs
|
Mapeamento de enlaces de dados de entradas utilizados na tarefa. |
Devoluções
Tipo | Description |
---|---|
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferExport>
|
Um objeto DataTransferExport. |
Exceções
Tipo | Description |
---|---|
Se o sink não for fornecido ou a exportação do sistema de ficheiros não for suportada. |
import_data
Nota
Este é um método experimental e pode ser alterado em qualquer altura. Para obter mais informações, veja https://aka.ms/azuremlexperimental.
Crie um objeto DataTransferImport que pode ser utilizado dentro de dsl.pipeline.
import_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, source: Dict | Database | FileSystem | None = None, outputs: Dict | None = None, **kwargs: Any) -> DataTransferImport
Parâmetros Só de Palavra-Chave
Name | Description |
---|---|
name
|
O nome da tarefa. |
description
|
Descrição da tarefa. |
tags
|
Dicionário de etiquetas. As etiquetas podem ser adicionadas, removidas e atualizadas. |
display_name
|
Nome a apresentar da tarefa. |
experiment_name
|
Nome da experimentação em que a tarefa será criada. |
compute
|
O recurso de computação em que a tarefa é executada. |
source
|
A origem de dados do sistema de ficheiros ou da base de dados. |
outputs
|
Mapeamento de saídas de enlaces de dados utilizados na tarefa. A predefinição será uma porta de saída com a chave "sink" e escreva "mltable". |
Devoluções
Tipo | Description |
---|---|
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferImport>
|
Um objeto DataTransferImport. |
Azure SDK for Python