Compartir a través de


data_transfer Paquete

Clases

DataTransferCopy

Nota

Se trata de una clase experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información.

Clase base para el nodo de copia de transferencia de datos.

No debe crear una instancia de esta clase directamente. En su lugar, debe crear a partir de la función del generador: copy_data.

DataTransferCopyComponent

Nota

Se trata de una clase experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información.

Versión del componente de copia dataTransfer, que se usa para definir un componente de copia de transferencia de datos.

DataTransferExport

Nota

Se trata de una clase experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información.

Clase base para el nodo de exportación de transferencia de datos.

No debe crear una instancia de esta clase directamente. En su lugar, debe crear a partir de la función del generador: export_data.

DataTransferExportComponent

Nota

Se trata de una clase experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información.

Versión del componente de exportación de DataTransfer, que se usa para definir un componente de exportación de transferencia de datos.

DataTransferImport

Nota

Se trata de una clase experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información.

Clase base para el nodo de importación de transferencia de datos.

No debe crear una instancia de esta clase directamente. En su lugar, debe crear a partir de la función del generador: import_data.

DataTransferImportComponent

Nota

Se trata de una clase experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información.

Versión del componente de importación de DataTransfer, que se usa para definir un componente de importación de transferencia de datos.

Database

Defina una clase de base de datos para un componente o un trabajo de DataTransfer.

FileSystem

Defina una clase de sistema de archivos de un componente o un trabajo de DataTransfer.

Por ejemplo, source_s3 = FileSystem(path='s3://my_bucket/my_folder', connection='azureml:my_s3_connection')

Funciones

copy_data

Nota

Se trata de un método experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información.

Cree un objeto DataTransferCopy que se pueda usar dentro de dsl.pipeline como una función.

copy_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, is_deterministic: bool = True, data_copy_mode: str | None = None, **kwargs: Any) -> DataTransferCopy

Parámetros de palabra clave únicamente

Nombre Description
name
str

Nombre del trabajo.

description
str

Descripción del trabajo.

tags

Diccionario de etiquetas. Las etiquetas se pueden agregar, quitar y actualizar.

display_name
str

Nombre para mostrar del trabajo.

experiment_name
str

Nombre del experimento en el que se creará el trabajo.

compute
str

Recurso de proceso en el que se ejecuta el trabajo.

inputs

Asignación de enlaces de datos de entradas usados en el trabajo.

outputs

Asignación de enlaces de datos de salida usados en el trabajo.

is_deterministic

Especifique si el comando devolverá la misma salida dada la misma entrada. Si un comando (componente) es determinista, cuando se usa como nodo o paso en una canalización, reutilizará los resultados de un trabajo enviado anterior en el área de trabajo actual que tiene las mismas entradas y configuraciones. En este caso, este paso no usará ningún recurso de proceso. El valor predeterminado es True, especifique is_deterministic=False si desea evitar este comportamiento de reutilización.

data_copy_mode
str

modo de copia de datos en la tarea de copia, el valor posible es "merge_with_overwrite", "fail_if_conflict".

Devoluciones

Tipo Description

Objeto DataTransferCopy.

export_data

Nota

Se trata de un método experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información.

Cree un objeto DataTransferExport que se pueda usar dentro de dsl.pipeline.

export_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, sink: Dict | Database | FileSystem | None = None, inputs: Dict | None = None, **kwargs: Any) -> DataTransferExport

Parámetros de palabra clave únicamente

Nombre Description
name
str

Nombre del trabajo.

description
str

Descripción del trabajo.

tags

Diccionario de etiquetas. Las etiquetas se pueden agregar, quitar y actualizar.

display_name
str

Nombre para mostrar del trabajo.

experiment_name
str

Nombre del experimento en el que se creará el trabajo.

compute
str

Recurso de proceso en el que se ejecuta el trabajo.

sink

Receptor de datos y bases de datos externos.

inputs

Asignación de enlaces de datos de entradas usados en el trabajo.

Devoluciones

Tipo Description
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferExport>

Objeto DataTransferExport.

Excepciones

Tipo Description

Si no se proporciona el receptor o no se admite la exportación del sistema de archivos.

import_data

Nota

Se trata de un método experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información.

Cree un objeto DataTransferImport que se pueda usar dentro de dsl.pipeline.

import_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, source: Dict | Database | FileSystem | None = None, outputs: Dict | None = None, **kwargs: Any) -> DataTransferImport

Parámetros de palabra clave únicamente

Nombre Description
name
str

Nombre del trabajo.

description
str

Descripción del trabajo.

tags

Diccionario de etiquetas. Las etiquetas se pueden agregar, quitar y actualizar.

display_name
str

Nombre para mostrar del trabajo.

experiment_name
str

Nombre del experimento en el que se creará el trabajo.

compute
str

Recurso de proceso en el que se ejecuta el trabajo.

source

Origen de datos del sistema de archivos o la base de datos.

outputs

Asignación de enlaces de datos de salida usados en el trabajo. El valor predeterminado será un puerto de salida con la clave "sink" y el tipo "mltable".

Devoluciones

Tipo Description
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferImport>

Objeto DataTransferImport.