data_transfer Paquete
Clases
DataTransferCopy |
Nota Se trata de una clase experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información. Clase base para el nodo de copia de transferencia de datos. No debe crear una instancia de esta clase directamente. En su lugar, debe crear a partir de la función del generador: copy_data. |
DataTransferCopyComponent |
Nota Se trata de una clase experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información. Versión del componente de copia dataTransfer, que se usa para definir un componente de copia de transferencia de datos. |
DataTransferExport |
Nota Se trata de una clase experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información. Clase base para el nodo de exportación de transferencia de datos. No debe crear una instancia de esta clase directamente. En su lugar, debe crear a partir de la función del generador: export_data. |
DataTransferExportComponent |
Nota Se trata de una clase experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información. Versión del componente de exportación de DataTransfer, que se usa para definir un componente de exportación de transferencia de datos. |
DataTransferImport |
Nota Se trata de una clase experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información. Clase base para el nodo de importación de transferencia de datos. No debe crear una instancia de esta clase directamente. En su lugar, debe crear a partir de la función del generador: import_data. |
DataTransferImportComponent |
Nota Se trata de una clase experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información. Versión del componente de importación de DataTransfer, que se usa para definir un componente de importación de transferencia de datos. |
Database |
Defina una clase de base de datos para un componente o un trabajo de DataTransfer. |
FileSystem |
Defina una clase de sistema de archivos de un componente o un trabajo de DataTransfer. Por ejemplo, source_s3 = FileSystem(path='s3://my_bucket/my_folder', connection='azureml:my_s3_connection') |
Funciones
copy_data
Nota
Se trata de un método experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información.
Cree un objeto DataTransferCopy que se pueda usar dentro de dsl.pipeline como una función.
copy_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, is_deterministic: bool = True, data_copy_mode: str | None = None, **kwargs: Any) -> DataTransferCopy
Parámetros de palabra clave únicamente
Nombre | Description |
---|---|
name
|
Nombre del trabajo. |
description
|
Descripción del trabajo. |
tags
|
Diccionario de etiquetas. Las etiquetas se pueden agregar, quitar y actualizar. |
display_name
|
Nombre para mostrar del trabajo. |
experiment_name
|
Nombre del experimento en el que se creará el trabajo. |
compute
|
Recurso de proceso en el que se ejecuta el trabajo. |
inputs
|
Asignación de enlaces de datos de entradas usados en el trabajo. |
outputs
|
Asignación de enlaces de datos de salida usados en el trabajo. |
is_deterministic
|
Especifique si el comando devolverá la misma salida dada la misma entrada. Si un comando (componente) es determinista, cuando se usa como nodo o paso en una canalización, reutilizará los resultados de un trabajo enviado anterior en el área de trabajo actual que tiene las mismas entradas y configuraciones. En este caso, este paso no usará ningún recurso de proceso. El valor predeterminado es True, especifique is_deterministic=False si desea evitar este comportamiento de reutilización. |
data_copy_mode
|
modo de copia de datos en la tarea de copia, el valor posible es "merge_with_overwrite", "fail_if_conflict". |
Devoluciones
Tipo | Description |
---|---|
Objeto DataTransferCopy. |
export_data
Nota
Se trata de un método experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información.
Cree un objeto DataTransferExport que se pueda usar dentro de dsl.pipeline.
export_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, sink: Dict | Database | FileSystem | None = None, inputs: Dict | None = None, **kwargs: Any) -> DataTransferExport
Parámetros de palabra clave únicamente
Nombre | Description |
---|---|
name
|
Nombre del trabajo. |
description
|
Descripción del trabajo. |
tags
|
Diccionario de etiquetas. Las etiquetas se pueden agregar, quitar y actualizar. |
display_name
|
Nombre para mostrar del trabajo. |
experiment_name
|
Nombre del experimento en el que se creará el trabajo. |
compute
|
Recurso de proceso en el que se ejecuta el trabajo. |
sink
|
Receptor de datos y bases de datos externos. |
inputs
|
Asignación de enlaces de datos de entradas usados en el trabajo. |
Devoluciones
Tipo | Description |
---|---|
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferExport>
|
Objeto DataTransferExport. |
Excepciones
Tipo | Description |
---|---|
Si no se proporciona el receptor o no se admite la exportación del sistema de archivos. |
import_data
Nota
Se trata de un método experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información.
Cree un objeto DataTransferImport que se pueda usar dentro de dsl.pipeline.
import_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, source: Dict | Database | FileSystem | None = None, outputs: Dict | None = None, **kwargs: Any) -> DataTransferImport
Parámetros de palabra clave únicamente
Nombre | Description |
---|---|
name
|
Nombre del trabajo. |
description
|
Descripción del trabajo. |
tags
|
Diccionario de etiquetas. Las etiquetas se pueden agregar, quitar y actualizar. |
display_name
|
Nombre para mostrar del trabajo. |
experiment_name
|
Nombre del experimento en el que se creará el trabajo. |
compute
|
Recurso de proceso en el que se ejecuta el trabajo. |
source
|
Origen de datos del sistema de archivos o la base de datos. |
outputs
|
Asignación de enlaces de datos de salida usados en el trabajo. El valor predeterminado será un puerto de salida con la clave "sink" y el tipo "mltable". |
Devoluciones
Tipo | Description |
---|---|
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferImport>
|
Objeto DataTransferImport. |
Azure SDK for Python