PipelineJob Klasa
Zadanie potoku.
Nie należy bezpośrednio utworzyć wystąpienia tej klasy. Zamiast tego należy użyć dekoratora @pipeline do utworzenia zadania PipelineJob.
] :p aram obliczeniowy: nazwa docelowa obliczeniowa wbudowanego potoku. Domyślnie wartość None :type compute: str :p aram tags: Tag dictionary. Tagi można dodawać, usuwać i aktualizować. Domyślnie wartość None :type tags: dict[str, str] :p aram kwargs: słownik dodatkowych parametrów konfiguracji. Domyślnie wartość None :type kwargs: dict
- Dziedziczenie
-
azure.ai.ml.entities._job.job.JobPipelineJobazure.ai.ml.entities._mixins.YamlTranslatableMixinPipelineJobazure.ai.ml.entities._job.pipeline._io.mixin.PipelineJobIOMixinPipelineJobazure.ai.ml.entities._validation.path_aware_schema.PathAwareSchemaValidatableMixinPipelineJob
Konstruktor
PipelineJob(*, component: str | PipelineComponent | None = None, inputs: Dict[str, int | str | float | bool | Input] | None = None, outputs: Dict[str, Output] | None = None, name: str | None = None, description: str | None = None, display_name: str | None = None, experiment_name: str | None = None, jobs: Dict[str, BaseNode] | None = None, settings: PipelineJobSettings | None = None, identity: ManagedIdentityConfiguration | AmlTokenConfiguration | UserIdentityConfiguration | None = None, compute: str | None = None, tags: Dict[str, str] | None = None, **kwargs)
Parametry
- component
- Union[str, PipelineComponent]
Wersja składnika potoku. Pole wyklucza się wzajemnie z "zadaniami".
Dane wejściowe zadania potoku.
- experiment_name
- str
Nazwa eksperymentu, w ramach których zostanie utworzone zadanie. Jeśli parametr Brak zostanie podany, eksperyment zostanie ustawiony na bieżący katalog. Wartości domyślne to None
Nazwa węzła składnika potoku do obiektu składnika. Wartości domyślne to None
Tożsamość używana przez zadanie trenowania podczas uruchamiania w środowisku obliczeniowym. Wartości domyślne to None
Przykłady
Pokazuje, jak utworzyć potok przy użyciu tej klasy.
from azure.ai.ml.entities import PipelineJob, PipelineJobSettings
pipeline_job = PipelineJob(
description="test pipeline job",
tags={},
display_name="test display name",
experiment_name="pipeline_job_samples",
properties={},
settings=PipelineJobSettings(force_rerun=True, default_compute="cpu-cluster"),
jobs={"component1": component_func(component_in_number=1.0, component_in_path=uri_file_input)},
)
ml_client.jobs.create_or_update(pipeline_job)
Metody
dump |
Zrzuty zawartości zadania do pliku w formacie YAML. |
dump
Zrzuty zawartości zadania do pliku w formacie YAML.
dump(dest: str | PathLike | IO, **kwargs) -> None
Parametry
Ścieżka lokalna lub strumień plików do zapisania zawartości YAML do. Jeśli dest jest ścieżką pliku, zostanie utworzony nowy plik. Jeśli dest jest otwartym plikiem, plik zostanie zapisany bezpośrednio.
- kwargs
- dict
Dodatkowe argumenty do przekazania do serializatora YAML.
Wyjątki
Podniesione, jeśli dest jest ścieżką pliku i plik już istnieje.
Podniesione, jeśli dest jest otwartym plikiem, a plik nie jest zapisywalny.
Atrybuty
base_path
creation_context
id
Identyfikator zasobu.
Zwraca
Globalny identyfikator zasobu, identyfikator usługi Azure Resource Manager (ARM).
Typ zwracany
inputs
Dane wejściowe zadania potoku.
Zwraca
Dane wejściowe zadania potoku.
Typ zwracany
jobs
log_files
Pliki wyjściowe zadania.
Zwraca
Słownik nazw dzienników i adresów URL.
Typ zwracany
outputs
Dane wyjściowe zadania potoku.
Zwraca
Dane wyjściowe zadania potoku.
Typ zwracany
settings
status
Stan zadania.
Zwracane wspólne wartości to "Running", "Completed" i "Failed". Wszystkie możliwe wartości to:
NotStarted — jest to stan tymczasowy, w przypadku którego przed przesłaniem chmury znajdują się obiekty Uruchom po stronie klienta.
Uruchamianie — uruchamianie zaczęło być przetwarzane w chmurze. Obiekt wywołujący ma w tym momencie identyfikator uruchomienia.
Aprowizowanie — zasoby obliczeniowe na żądanie są tworzone dla danego przesłania zadania.
Przygotowywanie — środowisko uruchamiania jest przygotowane i znajduje się w jednym z dwóch etapów:
Kompilacja obrazu platformy Docker
Konfiguracja środowiska conda
Queued — zadanie jest w kolejce w obiekcie docelowym obliczeniowym. Na przykład w usłudze BatchAI zadanie jest w stanie w kolejce
czekając na gotowość wszystkich żądanych węzłów.
Uruchomiono — zadanie zostało uruchomione na docelowym obiekcie obliczeniowym.
Finalizowanie — wykonanie kodu użytkownika zostało ukończone, a przebieg znajduje się na etapach przetwarzania końcowego.
CancelRequested — zażądano anulowania zadania.
Ukończono — przebieg został ukończony pomyślnie. Obejmuje to zarówno wykonywanie kodu użytkownika, jak i uruchamianie
etapy przetwarzania końcowego.
Niepowodzenie — przebieg zakończył się niepowodzeniem. Zazwyczaj właściwość Error w przebiegu zawiera szczegółowe informacje o przyczynie.
Anulowano — następuje żądanie anulowania i wskazuje, że przebieg został pomyślnie anulowany.
Brak odpowiedzi — w przypadku przebiegów z włączonymi pulsami nie wysłano ostatnio żadnego pulsu.
Zwraca
Stan zadania.
Typ zwracany
studio_url
Punkt końcowy usługi Azure ML Studio.
Zwraca
Adres URL strony szczegółów zadania.
Typ zwracany
type
Azure SDK for Python