data_transfer Pakiet
Klasy
DataTransferCopy |
Uwaga Jest to klasa eksperymentalna i może ulec zmianie w dowolnym momencie. Aby uzyskać więcej informacji, zobacz https://aka.ms/azuremlexperimental. Klasa bazowa dla węzła kopiowania transferu danych. Nie należy bezpośrednio utworzyć wystąpienia tej klasy. Zamiast tego należy utworzyć na podstawie funkcji konstruktora: copy_data. |
DataTransferCopyComponent |
Uwaga Jest to klasa eksperymentalna i może ulec zmianie w dowolnym momencie. Aby uzyskać więcej informacji, zobacz https://aka.ms/azuremlexperimental. DataTransfer copy component version (Wersja składnika kopiowania danych) używana do definiowania składnika kopiowania transferu danych. |
DataTransferExport |
Uwaga Jest to klasa eksperymentalna i może ulec zmianie w dowolnym momencie. Aby uzyskać więcej informacji, zobacz https://aka.ms/azuremlexperimental. Klasa bazowa dla węzła eksportu transferu danych. Nie należy bezpośrednio utworzyć wystąpienia tej klasy. Zamiast tego należy utworzyć na podstawie funkcji konstruktora: export_data. |
DataTransferExportComponent |
Uwaga Jest to klasa eksperymentalna i może ulec zmianie w dowolnym momencie. Aby uzyskać więcej informacji, zobacz https://aka.ms/azuremlexperimental. Wersja składnika eksportu DataTransfer używana do definiowania składnika eksportu transferu danych. |
DataTransferImport |
Uwaga Jest to klasa eksperymentalna i może ulec zmianie w dowolnym momencie. Aby uzyskać więcej informacji, zobacz https://aka.ms/azuremlexperimental. Klasa bazowa dla węzła importu transferu danych. Nie należy bezpośrednio utworzyć wystąpienia tej klasy. Zamiast tego należy utworzyć na podstawie funkcji konstruktora: import_data. |
DataTransferImportComponent |
Uwaga Jest to klasa eksperymentalna i może ulec zmianie w dowolnym momencie. Aby uzyskać więcej informacji, zobacz https://aka.ms/azuremlexperimental. DataTransfer import component version (Wersja składnika importu danych) używana do definiowania składnika importu transferu danych. |
Database |
Zdefiniuj klasę bazy danych dla składnika lub zadania DataTransfer. |
FileSystem |
Zdefiniuj klasę systemu plików składnika lub zadania transferu danych. np. source_s3 = FileSystem(path='s3://my_bucket/my_folder', connection='azureml:my_s3_connection') |
Funkcje
copy_data
Uwaga
Jest to metoda eksperymentalna i może ulec zmianie w dowolnym momencie. Aby uzyskać więcej informacji, zobacz https://aka.ms/azuremlexperimental.
Utwórz obiekt DataTransferCopy, który może być używany wewnątrz pliku dsl.pipeline jako funkcji.
copy_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, is_deterministic: bool = True, data_copy_mode: str | None = None, **kwargs: Any) -> DataTransferCopy
Parametry Tylko słowo kluczowe
Nazwa | Opis |
---|---|
name
|
Nazwa zadania. |
description
|
Opis zadania. |
tags
|
Słownik tagów. Tagi można dodawać, usuwać i aktualizować. |
display_name
|
Nazwa wyświetlana zadania. |
experiment_name
|
Nazwa eksperymentu, w ramach których zostanie utworzone zadanie. |
compute
|
Zasób obliczeniowy, na który działa zadanie. |
inputs
|
Mapowanie powiązań danych wejściowych używanych w zadaniu. |
outputs
|
Mapowanie powiązań danych wyjściowych używanych w zadaniu. |
is_deterministic
|
Określ, czy polecenie zwróci te same dane wyjściowe, biorąc pod uwagę te same dane wejściowe. Jeśli polecenie (składnik) jest deterministyczne, gdy jest ono używane jako węzeł/krok w potoku, ponownie użyje wyników z poprzedniego przesłanego zadania w bieżącym obszarze roboczym, który ma te same dane wejściowe i ustawienia. W takim przypadku ten krok nie będzie używał żadnego zasobu obliczeniowego. Wartość domyślna to True, określ wartość is_deterministic=False, jeśli chcesz uniknąć takiego zachowania ponownego użycia. |
data_copy_mode
|
tryb kopiowania danych w zadaniu kopiowania, możliwa wartość to "merge_with_overwrite", "fail_if_conflict". |
Zwraca
Typ | Opis |
---|---|
Obiekt DataTransferCopy. |
export_data
Uwaga
Jest to metoda eksperymentalna i może ulec zmianie w dowolnym momencie. Aby uzyskać więcej informacji, zobacz https://aka.ms/azuremlexperimental.
Utwórz obiekt DataTransferExport, który może być używany wewnątrz pliku dsl.pipeline.
export_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, sink: Dict | Database | FileSystem | None = None, inputs: Dict | None = None, **kwargs: Any) -> DataTransferExport
Parametry Tylko słowo kluczowe
Nazwa | Opis |
---|---|
name
|
Nazwa zadania. |
description
|
Opis zadania. |
tags
|
Słownik tagów. Tagi można dodawać, usuwać i aktualizować. |
display_name
|
Nazwa wyświetlana zadania. |
experiment_name
|
Nazwa eksperymentu, w ramach których zostanie utworzone zadanie. |
compute
|
Zasób obliczeniowy, na który działa zadanie. |
sink
|
Ujście danych zewnętrznych i baz danych. |
inputs
|
Mapowanie powiązań danych wejściowych używanych w zadaniu. |
Zwraca
Typ | Opis |
---|---|
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferExport>
|
Obiekt DataTransferExport. |
Wyjątki
Typ | Opis |
---|---|
Jeśli ujście nie jest podane lub eksportowanie systemu plików nie jest obsługiwane. |
import_data
Uwaga
Jest to metoda eksperymentalna i może ulec zmianie w dowolnym momencie. Aby uzyskać więcej informacji, zobacz https://aka.ms/azuremlexperimental.
Utwórz obiekt DataTransferImport, który może być używany wewnątrz pliku dsl.pipeline.
import_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, source: Dict | Database | FileSystem | None = None, outputs: Dict | None = None, **kwargs: Any) -> DataTransferImport
Parametry Tylko słowo kluczowe
Nazwa | Opis |
---|---|
name
|
Nazwa zadania. |
description
|
Opis zadania. |
tags
|
Słownik tagów. Tagi można dodawać, usuwać i aktualizować. |
display_name
|
Nazwa wyświetlana zadania. |
experiment_name
|
Nazwa eksperymentu, w ramach których zostanie utworzone zadanie. |
compute
|
Zasób obliczeniowy, na który działa zadanie. |
source
|
Źródło danych systemu plików lub bazy danych. |
outputs
|
Mapowanie powiązań danych wyjściowych używanych w zadaniu. Wartość domyślna będzie portem wyjściowym z kluczem "sink" i typem "mltable". |
Zwraca
Typ | Opis |
---|---|
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferImport>
|
Obiekt DataTransferImport. |
Azure SDK for Python
Opinia
https://aka.ms/ContentUserFeedback.
Dostępne już wkrótce: W 2024 r. będziemy stopniowo wycofywać zgłoszenia z serwisu GitHub jako mechanizm przesyłania opinii na temat zawartości i zastępować go nowym systemem opinii. Aby uzyskać więcej informacji, sprawdź:Prześlij i wyświetl opinię dla