Run Klasa
Definiuje klasę bazową dla wszystkich przebiegów eksperymentów usługi Azure Machine Learning.
Przebieg reprezentuje jedną wersję próbną eksperymentu. Uruchomienia służą do monitorowania asynchronicznego wykonywania wersji próbnej, metryk dziennika i przechowywania danych wyjściowych wersji próbnej oraz analizowania wyników i uzyskiwania dostępu do artefaktów generowanych przez wersję próbną.
Obiekty uruchamiania są tworzone podczas przesyłania skryptu do trenowania modelu w wielu różnych scenariuszach w usłudze Azure Machine Learning, w tym przebiegów funkcji HyperDrive, przebiegów potoków i przebiegów automatycznego uczenia maszynowego. Obiekt Run jest również tworzony podczas submit korzystania z klasy lub start_logging z tą klasą Experiment .
Aby rozpocząć pracę z eksperymentami i przebiegami, zobacz
Zainicjuj obiekt Uruchom.
- Dziedziczenie
-
azureml._run_impl.run_base._RunBaseRun
Konstruktor
Run(experiment, run_id, outputs=None, **kwargs)
Parametry
- _run_dto
- <xref:azureml._restclient.models.run_dto.RunDto>
Tylko do użytku wewnętrznego.
Uwagi
Przebieg reprezentuje jedną wersję próbną eksperymentu. Obiekt Run służy do monitorowania asynchronicznego wykonywania wersji próbnej, metryk dziennika i przechowywania danych wyjściowych wersji próbnej oraz analizowania wyników i uzyskiwania dostępu do artefaktów generowanych przez wersję próbną.
Uruchamianie jest używane wewnątrz kodu eksperymentowania w celu rejestrowania metryk i artefaktów w usłudze Historia uruchamiania.
Uruchamianie jest używane poza eksperymentami w celu monitorowania postępu oraz wykonywania zapytań i analizowania wygenerowanych metryk i wyników.
Funkcja Uruchom obejmuje następujące funkcje:
Przechowywanie i pobieranie metryk i danych
Przekazywanie i pobieranie plików
Używanie tagów oraz hierarchii podrzędnej w celu łatwego wyszukiwania poprzednich przebiegów
Rejestrowanie przechowywanych plików modelu jako modelu, który można zoperacjonalizować
Przechowywanie, modyfikowanie i pobieranie właściwości przebiegu
Ładowanie bieżącego uruchomienia ze środowiska zdalnego za pomocą get_context metody
Efektywne tworzenie migawek pliku lub katalogu w celu odtworzenia
Ta klasa współpracuje z Experiment tymi scenariuszami:
Tworzenie przebiegu przez wykonanie kodu przy użyciu polecenia submit
Tworzenie przebiegu interakcyjnego w notesie przy użyciu polecenia start_logging
Rejestrowanie metryk i przekazywanie artefaktów w eksperymencie, na przykład podczas korzystania z log
Odczytywanie metryk i pobieranie artefaktów podczas analizowania wyników eksperymentalnych, takich jak podczas korzystania z get_metrics
Aby przesłać przebieg, utwórz obiekt konfiguracji opisujący sposób uruchamiania eksperymentu. Oto przykłady różnych obiektów konfiguracji, których można użyć:
azureml.train.automl.automlconfig.AutoMLConfig
azureml.train.hyperdrive.HyperDriveConfig
azureml.pipeline.core.Pipeline
azureml.pipeline.core.PublishedPipeline
azureml.pipeline.core.PipelineEndpoint
Podczas trenowania eksperymentu można dodać następujące metryki do przebiegu.
Wartość skalarna
Zarejestruj wartość liczbową lub ciągową do przebiegu przy użyciu podanej nazwy przy użyciu polecenia log. Rejestrowanie metryki w przebiegu powoduje, że metryka ma być przechowywana w rekordzie uruchamiania w eksperymencie. Tę samą metrykę można rejestrować wiele razy w ramach przebiegu. Wynik jest uznawany za wektor tej metryki.
Przykład:
run.log("accuracy", 0.95)
Lista
Zarejestruj listę wartości do uruchomienia przy użyciu podanej nazwy przy użyciu polecenia log_list.
Przykład:
run.log_list("accuracies", [0.6, 0.7, 0.87])
Wiersz
Użycie log_row metody tworzy metrykę z wieloma kolumnami zgodnie z opisem w temacie
kwargs
. Każdy nazwany parametr generuje kolumnę z określoną wartością.log_row
można wywołać raz, aby zarejestrować dowolną krotkę lub wiele razy w pętli w celu wygenerowania pełnej tabeli.Przykład:
run.log_row("Y over X", x=1, y=0.4)
Tabela
Rejestrowanie obiektu słownika w przebiegu przy użyciu podanej nazwy przy użyciu polecenia log_table.
Przykład:
run.log_table("Y over X", {"x":[1, 2, 3], "y":[0.6, 0.7, 0.89]})
Obraz
Rejestrowanie obrazu w rekordzie uruchamiania. Służy log_image do rejestrowania pliku obrazu lub wykresu matplotlib do uruchomienia. Te obrazy będą widoczne i porównywalne w rekordzie przebiegu.
Przykład:
run.log_image("ROC", path)
Metody
add_properties |
Dodaj niezmienne właściwości do przebiegu. Tagi i właściwości (zarówno dict[str, str]) różnią się w ich niezmienności. Właściwości są niezmienne, więc tworzą stały rekord do celów inspekcji. Tagi są modyfikowalne. Aby uzyskać więcej informacji na temat pracy z tagami i właściwościami, zobacz tagowanie i znajdowanie przebiegów. |
add_type_provider |
Rozszerzalność haka dla niestandardowych typów uruchomień przechowywanych w historii uruchamiania. |
cancel |
Oznacz przebieg jako anulowany. Jeśli istnieje skojarzone zadanie z ustawionym polem cancel_uri, zakończ to zadanie. |
child_run |
Utwórz uruchomienie podrzędne. |
clean |
Usuń pliki odpowiadające bieżącemu uruchomieniu w elemencie docelowym określonym w konfiguracji przebiegu. |
complete |
Poczekaj na przetworzenie kolejki zadań. Następnie przebieg jest oznaczony jako ukończony. Jest to zwykle używane w scenariuszach notesu interaktywnego. |
create_children |
Utwórz jedno lub wiele przebiegów podrzędnych. |
download_file |
Pobierz skojarzony plik z magazynu. |
download_files |
Pobierz pliki z danego prefiksu magazynu (nazwy folderu) lub całego kontenera, jeśli prefiks jest nieokreślony. |
fail |
Oznacz przebieg jako niepowodzenie. Opcjonalnie ustaw właściwość Error przebiegu z komunikatem lub wyjątkiem przekazanym na |
flush |
Poczekaj na przetworzenie kolejki zadań. |
get |
Pobierz przebieg dla tego obszaru roboczego z jego identyfikatorem uruchomienia. |
get_all_logs |
Pobierz wszystkie dzienniki przebiegu do katalogu. |
get_children |
Pobierz wszystkie elementy podrzędne dla bieżącego przebiegu wybranego przez określone filtry. |
get_context |
Zwraca bieżący kontekst usługi. Użyj tej metody, aby pobrać bieżący kontekst usługi na potrzeby rejestrowania metryk i przekazywania plików. Jeśli |
get_detailed_status |
Pobierz najnowszy stan przebiegu. Jeśli stan przebiegu to "Queued", zostanie wyświetlony szczegóły. |
get_details |
Pobierz definicję, informacje o stanie, bieżące pliki dziennika i inne szczegóły przebiegu. |
get_details_with_logs |
Zwracany stan uruchomienia, w tym zawartość pliku dziennika. |
get_environment |
Pobierz definicję środowiska, która została użyta przez to uruchomienie. |
get_file_names |
Wyświetl listę plików przechowywanych w skojarzeniu z przebiegiem. |
get_metrics |
Pobierz zarejestrowane metryki do uruchomienia. Jeśli |
get_properties |
Pobierz najnowsze właściwości przebiegu z usługi. |
get_secret |
Pobierz wartość wpisu tajnego z kontekstu przebiegu. Pobierz wartość wpisu tajnego dla podanej nazwy. Nazwa wpisu tajnego odwołuje się do wartości przechowywanej w usłudze Azure Key Vault skojarzonej z obszarem roboczym. Przykład pracy z wpisami tajnymi można znaleźć w temacie Use secrets in training run (Używanie wpisów tajnych w przebiegach trenowania). |
get_secrets |
Pobierz wartości wpisów tajnych dla danej listy nazw wpisów tajnych. Pobierz słownik znalezionych i nie znaleziono wpisów tajnych dla podanej listy nazw. Każda nazwa wpisu tajnego odwołuje się do wartości przechowywanej w usłudze Azure Key Vault skojarzonej z obszarem roboczym. Przykład pracy z wpisami tajnymi można znaleźć w temacie Use secrets in training run (Używanie wpisów tajnych w przebiegach trenowania). |
get_snapshot_id |
Pobierz najnowszy identyfikator migawki. |
get_status |
Pobierz najnowszy stan przebiegu. Zwracane wspólne wartości to "Running", "Completed" i "Failed". |
get_submitted_run |
PRZESTARZAŁE. Użyj polecenia get_context. Pobierz przesłany przebieg dla tego eksperymentu. |
get_tags |
Pobierz najnowszy zestaw tagów modyfikowalnych w przebiegu z usługi. |
list |
Pobierz listę przebiegów w eksperymencie określonym przez opcjonalne filtry. |
list_by_compute |
Pobierz listę przebiegów w obliczeniach określonych przez opcjonalne filtry. |
log |
Zarejestruj wartość metryki do przebiegu przy użyciu podanej nazwy. |
log_accuracy_table |
Rejestrowanie tabeli dokładności w magazynie artefaktów. Metryka tabeli dokładności to wielowymiarowa metryka, która może służyć do tworzenia wielu typów wykresów liniowych, które różnią się stale w przestrzeni przewidywanych prawdopodobieństwa. Przykłady tych wykresów to krzywe ROC, precyzja i krzywe podnoszenia. Obliczenie tabeli dokładności jest podobne do obliczania krzywej ROC. Krzywa ROC przechowuje prawdziwe dodatnie wskaźniki i fałszywie dodatnie wskaźniki przy wielu różnych progach prawdopodobieństwa. Tabela dokładności przechowuje nieprzetworzona liczba wyników prawdziwie dodatnich, wyników fałszywie dodatnich, prawdziwie ujemnych i fałszywie ujemnych przy wielu progach prawdopodobieństwa. Istnieją dwie metody służące do wybierania progów: "prawdopodobieństwo" i "percentyl". Różnią się one sposobem próbkowania od przestrzeni przewidywanych prawdopodobieństwa. Progi prawdopodobieństwa są równomiernie odstępami od 0 do 1. Jeśli NUM_POINTS wynosi 5, progi prawdopodobieństwa to [0.0, 0.25, 0.5, 0.75, 1.0]. Progi percentylu są rozmieszczone zgodnie z rozkładem przewidywanych prawdopodobieństwa. Każdy próg odpowiada percentylowi danych na progu prawdopodobieństwa. Jeśli na przykład NUM_POINTS wynosi 5, pierwszy próg będzie wynosić 0 percentyl, drugi na 25. percentyl, trzeci na 50. i tak dalej. Tabele prawdopodobieństwa i tabele percentylu są zarówno listami 3D, gdzie pierwszy wymiar reprezentuje etykietę klasy, drugi wymiar reprezentuje próbkę przy jednym progu (skale z NUM_POINTS), a trzeci wymiar zawsze ma 4 wartości: TP, FP, TN, FN i zawsze w tej kolejności. Wartości pomyłek (TP, FP, TN, FN) są obliczane przy użyciu jednej strategii a rest. Aby uzyskać więcej informacji, zobacz następujący link: https://en.wikipedia.org/wiki/Multiclass_classification N = liczba przykładów w zestawie danych weryfikacji (na przykład 200) M = # progi = # próbki pobrane z obszaru prawdopodobieństwa (na przykład 5) C = # klasy w pełnym zestawie danych (przykład 3 w przykładzie) Niektóre niezmienne wartości tabeli dokładności:
Uwaga: język M może być dowolną wartością i kontroluje rozdzielczość wykresów Jest to niezależne od zestawu danych, jest definiowane podczas obliczania metryk i zajmuje się miejscem do magazynowania, czasem obliczeń i rozdzielczością. Etykiety klas powinny być ciągami, wartości pomyłek powinny być liczbami całkowitymi, a progi powinny być zmiennoprzecinkowe. |
log_confusion_matrix |
Rejestrowanie macierzy pomyłek w magazynie artefaktów. Rejestruje otokę wokół macierzy pomyłek sklearn. Dane metryk zawierają etykiety klas i listę 2D dla samej macierzy. Aby uzyskać więcej informacji na temat sposobu obliczania metryki, zobacz następujący link: https://scikit-learn.org/stable/modules/generated/sklearn.metrics.confusion_matrix.html |
log_image |
Rejestrowanie metryki obrazu w rekordzie uruchamiania. |
log_list |
Zarejestruj listę wartości metryk do przebiegu o podanej nazwie. |
log_predictions |
Rejestrowanie przewidywań w magazynie artefaktów. Rejestruje wynik metryki, który może służyć do porównywania rozkładów rzeczywistych wartości docelowych do rozkładu przewidywanych wartości dla zadania regresji. Przewidywania są binned, a odchylenia standardowe są obliczane dla słupków błędów na wykresie liniowym. |
log_residuals |
Rejestruje reszty w magazynie artefaktów. Rejestruje dane potrzebne do wyświetlenia histogramu reszt zadania regresji. Reszty są przewidywane — rzeczywiste. Powinna istnieć jeszcze jedna krawędź niż liczba liczb. Zapoznaj się z dokumentacją histogramu numpy, aby zapoznać się z przykładami użycia liczb i krawędzi do reprezentowania histogramu. https://docs.scipy.org/doc/numpy/reference/generated/numpy.histogram.html |
log_row |
Rejestrowanie metryki wiersza do przebiegu przy użyciu podanej nazwy. |
log_table |
Rejestrowanie metryki tabeli w przebiegu przy użyciu podanej nazwy. |
register_model |
Rejestrowanie modelu na potrzeby operacjonalizacji. |
remove_tags |
Usuń listę tagów modyfikowalnych w tym przebiegu. |
restore_snapshot |
Przywróć migawkę jako plik ZIP. Zwraca ścieżkę do pliku ZIP. |
set_tags |
Dodaj lub zmodyfikuj zestaw tagów w przebiegu. Tagi, które nie zostały przekazane w słowniku, pozostają nietknięte. Można również dodać proste tagi ciągów. Gdy te tagi są wyświetlane w słowniku tagów jako klucze, mają wartość None. Aby uzyskać więcej informacji, zobacz Tag i znajdź uruchomienia. |
start |
Oznacz przebieg jako rozpoczęty. Jest to zwykle używane w zaawansowanych scenariuszach, gdy przebieg został utworzony przez innego aktora. |
submit_child |
Prześlij eksperyment i zwróć aktywne uruchomienie podrzędne. |
tag |
Oznacz przebieg kluczem ciągu i opcjonalną wartością ciągu. |
take_snapshot |
Zapisz migawkę pliku lub folderu wejściowego. |
upload_file |
Przekaż plik do rekordu uruchomienia. |
upload_files |
Przekaż pliki do rekordu uruchomienia. |
upload_folder |
Przekaż określony folder do podanej nazwy prefiksu. |
wait_for_completion |
Poczekaj na ukończenie tego przebiegu. Zwraca obiekt statusu po oczekiwaniu. |
add_properties
Dodaj niezmienne właściwości do przebiegu.
Tagi i właściwości (zarówno dict[str, str]) różnią się w ich niezmienności. Właściwości są niezmienne, więc tworzą stały rekord do celów inspekcji. Tagi są modyfikowalne. Aby uzyskać więcej informacji na temat pracy z tagami i właściwościami, zobacz tagowanie i znajdowanie przebiegów.
add_properties(properties)
Parametry
add_type_provider
Rozszerzalność haka dla niestandardowych typów uruchomień przechowywanych w historii uruchamiania.
static add_type_provider(runtype, run_factory)
Parametry
- runtype
- str
Wartość Elementu Run.type, dla którego zostanie wywołana fabryka. Przykłady obejmują "hyperdrive" lub "azureml.scriptrun", ale można je rozszerzyć za pomocą typów niestandardowych.
- run_factory
- <xref:function>
Funkcja z podpisem (Experiment, RunDto) —> uruchamianie, które ma być wywoływane podczas uruchamiania listy.
cancel
Oznacz przebieg jako anulowany.
Jeśli istnieje skojarzone zadanie z ustawionym polem cancel_uri, zakończ to zadanie.
cancel()
child_run
Utwórz uruchomienie podrzędne.
child_run(name=None, run_id=None, outputs=None)
Parametry
- name
- str
Opcjonalna nazwa przebiegu podrzędnego, zazwyczaj określona dla "części".
- run_id
- str
Opcjonalny identyfikator uruchomienia dla elementu podrzędnego, w przeciwnym razie jest generowany automatycznie. Zazwyczaj ten parametr nie jest ustawiony.
- outputs
- str
Opcjonalny katalog wyjściowy do śledzenia dla elementu podrzędnego.
Zwraca
Uruchom element podrzędny.
Typ zwracany
Uwagi
Służy to do izolowania części przebiegu w podsekcji. Można to zrobić w celu zidentyfikowania "części" przebiegu, które są interesujące do oddzielenia lub przechwycenia niezależnych metryk między interacją podprocesu.
Jeśli dla podrzędnego uruchomienia zostanie ustawiony katalog wyjściowy, zawartość tego katalogu zostanie przekazana do podrzędnego rekordu uruchamiania po zakończeniu działania podrzędnego.
clean
Usuń pliki odpowiadające bieżącemu uruchomieniu w elemencie docelowym określonym w konfiguracji przebiegu.
clean()
Zwraca
Lista usuniętych plików.
Typ zwracany
complete
Poczekaj na przetworzenie kolejki zadań.
Następnie przebieg jest oznaczony jako ukończony. Jest to zwykle używane w scenariuszach notesu interaktywnego.
complete(_set_status=True)
Parametry
create_children
Utwórz jedno lub wiele przebiegów podrzędnych.
create_children(count=None, tag_key=None, tag_values=None)
Parametry
- tag_key
- str
Opcjonalny klucz do wypełnienia wpisu Tagi we wszystkich utworzonych elementach podrzędnych.
- tag_Values
Opcjonalna lista wartości, które będą mapować na tagi[tag_key] dla listy utworzonych przebiegów.
- tag_values
Zwraca
Lista przebiegów podrzędnych.
Typ zwracany
Uwagi
Należy określić parametr count
LUB parametry tag_key
I tag_values
.
download_file
Pobierz skojarzony plik z magazynu.
download_file(name, output_file_path=None, _validate_checksum=False)
Parametry
download_files
Pobierz pliki z danego prefiksu magazynu (nazwy folderu) lub całego kontenera, jeśli prefiks jest nieokreślony.
download_files(prefix=None, output_directory=None, output_paths=None, batch_size=100, append_prefix=True, timeout_seconds=None)
Parametry
- prefix
- str
Prefiks ścieżki plików w kontenerze, z którego mają być pobierane wszystkie artefakty.
- output_directory
- str
Opcjonalny katalog używany przez wszystkie ścieżki artefaktów jako prefiks.
- output_paths
- [str]
Opcjonalne ścieżki plików, w których mają być przechowywane pobrane artefakty. Powinna być unikatowa i dopasowywana długość ścieżek.
- append_prefix
- bool
Opcjonalna flaga, czy dołączyć określony prefiks z końcowej ścieżki pliku wyjściowego. Jeśli wartość False, prefiks zostanie usunięty ze ścieżki pliku wyjściowego.
fail
Oznacz przebieg jako niepowodzenie.
Opcjonalnie ustaw właściwość Error przebiegu z komunikatem lub wyjątkiem przekazanym na error_details
wartość .
fail(error_details=None, error_code=None, _set_status=True)
Parametry
flush
Poczekaj na przetworzenie kolejki zadań.
flush(timeout_seconds=300)
Parametry
- timeout_seconds
- int
Czas oczekiwania (w sekundach) na przetworzenie kolejki zadań.
get
Pobierz przebieg dla tego obszaru roboczego z jego identyfikatorem uruchomienia.
static get(workspace, run_id)
Parametry
Zwraca
Przesłany przebieg.
Typ zwracany
get_all_logs
Pobierz wszystkie dzienniki przebiegu do katalogu.
get_all_logs(destination=None)
Parametry
- destination
- str
Ścieżka docelowa do przechowywania dzienników. Jeśli nie zostanie określona, w katalogu projektu zostanie utworzony katalog o nazwie o nazwie identyfikator uruchomienia.
Zwraca
Lista nazw pobranych dzienników.
Typ zwracany
get_children
Pobierz wszystkie elementy podrzędne dla bieżącego przebiegu wybranego przez określone filtry.
get_children(recursive=False, tags=None, properties=None, type=None, status=None, _rehydrate_runs=True)
Parametry
- recursive
- bool
Wskazuje, czy powtarzać się za pośrednictwem wszystkich elementów potomnych.
Jeśli zostanie określony, zwraca przebiegi pasujące do określonego "tagu" lub {"tag": "value"}.
Jeśli zostanie określony, zwraca przebiegi zgodne z określoną właściwością lub {"property": "value"}.
- _rehydrate_runs
- bool
Wskazuje, czy należy utworzyć wystąpienie uruchomienia oryginalnego typu, czy podstawowego przebiegu.
Zwraca
Lista Run obiektów.
Typ zwracany
get_context
Zwraca bieżący kontekst usługi.
Użyj tej metody, aby pobrać bieżący kontekst usługi na potrzeby rejestrowania metryk i przekazywania plików. Jeśli allow_offline
ma wartość True (wartość domyślna), akcje względem obiektu Run zostaną wydrukowane zgodnie ze standardem.
get_context(allow_offline=True, used_for_context_manager=False, **kwargs)
Parametry
- cls
Wskazuje metodę klasy.
- allow_offline
- bool
Zezwól kontekstowi usługi na powrót do trybu offline, aby skrypt trenowania mógł być testowany lokalnie bez przesyłania zadania za pomocą zestawu SDK. Domyślnie prawda.
- used_for_context_manager
Zwraca
Przesłany przebieg.
Typ zwracany
Uwagi
Ta funkcja jest często używana do pobierania uwierzytelnionego obiektu Uruchom wewnątrz skryptu, który ma zostać przesłany do wykonania za pośrednictwem pliku experiment.submit(). Ten obiekt uruchamiania jest zarówno kontekstem uwierzytelnianym do komunikowania się z usługami Azure Machine Learning, jak i kontenerem koncepcyjnym, w którym znajdują się metryki, pliki (artefakty) i modele.
run = Run.get_context() # allow_offline=True by default, so can be run locally as well
...
run.log("Accuracy", 0.98)
run.log_row("Performance", epoch=e, error=err)
get_detailed_status
Pobierz najnowszy stan przebiegu. Jeśli stan przebiegu to "Queued", zostanie wyświetlony szczegóły.
get_detailed_status()
Zwraca
Najnowszy stan i szczegóły
Typ zwracany
Uwagi
status: bieżący stan przebiegu. Ta sama wartość jak zwrócona z get_status().
szczegóły: szczegółowe informacje o bieżącym stanie.
run = experiment.submit(config)
details = run.get_detailed_status()
# details = {
# 'status': 'Queued',
# 'details': 'Run requested 1 node(s). Run is in pending status.',
# }
get_details
Pobierz definicję, informacje o stanie, bieżące pliki dziennika i inne szczegóły przebiegu.
get_details()
Zwraca
Zwracanie szczegółów przebiegu
Typ zwracany
Uwagi
Zwrócony słownik zawiera następujące pary klucz-wartość:
runId: identyfikator tego przebiegu.
Docelowego
status: bieżący stan przebiegu. Ta sama wartość jak zwrócona z get_status().
startTimeUtc: czas UTC uruchomienia w iso8601.
endTimeUtc: godzina UTC zakończenia tego przebiegu (Ukończono lub Niepowodzenie) w iso8601.
Ten klucz nie istnieje, jeśli przebieg jest nadal w toku.
properties: Niezmienne pary klucz-wartość skojarzone z przebiegiem. Właściwości domyślne obejmują identyfikator migawki przebiegu i informacje o repozytorium git, z którego utworzono przebieg (jeśli istnieje). Dodatkowe właściwości można dodać do przebiegu przy użyciu polecenia add_properties.
inputDatasets: wejściowe zestawy danych skojarzone z przebiegiem.
outputDatasets: wyjściowe zestawy danych skojarzone z przebiegiem.
Logfiles
submittedBy
run = experiment.start_logging()
details = run.get_details()
# details = {
# 'runId': '5c24aa28-6e4a-4572-96a0-fb522d26fe2d',
# 'target': 'sdk',
# 'status': 'Running',
# 'startTimeUtc': '2019-01-01T13:08:01.713777Z',
# 'endTimeUtc': '2019-01-01T17:15:65.986253Z',
# 'properties': {
# 'azureml.git.repository_uri': 'https://example.com/my/git/repo',
# 'azureml.git.branch': 'master',
# 'azureml.git.commit': '7dc972657c2168927a02c3bc2b161e0f370365d7',
# 'azureml.git.dirty': 'True',
# 'mlflow.source.git.repoURL': 'https://example.com/my/git/repo',
# 'mlflow.source.git.branch': 'master',
# 'mlflow.source.git.commit': '7dc972657c2168927a02c3bc2b161e0f370365d7',
# 'ContentSnapshotId': 'b4689489-ce2f-4db5-b6d7-6ad11e77079c'
# },
# 'inputDatasets': [{
# 'dataset': {'id': 'cdebf245-701d-4a68-8055-41f9cf44f298'},
# 'consumptionDetails': {
# 'type': 'RunInput',
# 'inputName': 'training-data',
# 'mechanism': 'Mount',
# 'pathOnCompute': '/mnt/datasets/train'
# }
# }],
# 'outputDatasets': [{
# 'dataset': {'id': 'd04e8a19-1caa-4b1f-b318-4cbff9af9615'},
# 'outputType': 'RunOutput',
# 'outputDetails': {
# 'outputName': 'training-result'
# }
# }],
# 'runDefinition': {},
# 'logFiles': {},
# 'submittedBy': 'Alan Turing'
# }
get_details_with_logs
Zwracany stan uruchomienia, w tym zawartość pliku dziennika.
get_details_with_logs()
Zwraca
Zwraca stan przebiegu z zawartością pliku dziennika.
Typ zwracany
get_environment
Pobierz definicję środowiska, która została użyta przez to uruchomienie.
get_environment()
Zwraca
Zwróć obiekt środowiska.
Typ zwracany
get_file_names
Wyświetl listę plików przechowywanych w skojarzeniu z przebiegiem.
get_file_names()
Zwraca
Lista ścieżek dla istniejących artefaktów
Typ zwracany
get_metrics
Pobierz zarejestrowane metryki do uruchomienia.
Jeśli recursive
ma wartość True (fałsz domyślnie), pobierz metryki dla przebiegów w poddrzewie danego przebiegu.
get_metrics(name=None, recursive=False, run_type=None, populate=False)
Parametry
- recursive
- bool
Wskazuje, czy powtarzać się za pośrednictwem wszystkich elementów potomnych.
- run_type
- str
- populate
- bool
Wskazuje, czy pobrać zawartość danych zewnętrznych połączonych z metrykami.
Zwraca
Słownik zawierający metryki użytkowników.
Typ zwracany
Uwagi
run = experiment.start_logging() # run id: 123
run.log("A", 1)
with run.child_run() as child: # run id: 456
child.log("A", 2)
metrics = run.get_metrics()
# metrics = { 'A': 1 }
metrics = run.get_metrics(recursive=True)
# metrics = { '123': { 'A': 1 }, '456': { 'A': 2 } } note key is runId
get_properties
Pobierz najnowsze właściwości przebiegu z usługi.
get_properties()
Zwraca
Właściwości przebiegu.
Typ zwracany
Uwagi
Właściwości są niezmiennymi informacjami generowanymi przez system, takimi jak czas trwania, data wykonania, użytkownik i właściwości niestandardowe dodane za pomocą add_properties metody . Aby uzyskać więcej informacji, zobacz Tag i znajdź uruchomienia.
Podczas przesyłania zadania do usługi Azure Machine Learning, jeśli pliki źródłowe są przechowywane w lokalnym repozytorium Git, informacje o repozytorium są przechowywane jako właściwości. Te właściwości git są dodawane podczas tworzenia przebiegu lub wywoływania pliku Experiment.submit. Aby uzyskać więcej informacji o właściwościach usługi Git, zobacz Integracja z usługą Git dla usługi Azure Machine Learning.
get_secret
Pobierz wartość wpisu tajnego z kontekstu przebiegu.
Pobierz wartość wpisu tajnego dla podanej nazwy. Nazwa wpisu tajnego odwołuje się do wartości przechowywanej w usłudze Azure Key Vault skojarzonej z obszarem roboczym. Przykład pracy z wpisami tajnymi można znaleźć w temacie Use secrets in training run (Używanie wpisów tajnych w przebiegach trenowania).
get_secret(name)
Parametry
Zwraca
Wartość wpisu tajnego.
Typ zwracany
get_secrets
Pobierz wartości wpisów tajnych dla danej listy nazw wpisów tajnych.
Pobierz słownik znalezionych i nie znaleziono wpisów tajnych dla podanej listy nazw. Każda nazwa wpisu tajnego odwołuje się do wartości przechowywanej w usłudze Azure Key Vault skojarzonej z obszarem roboczym. Przykład pracy z wpisami tajnymi można znaleźć w temacie Use secrets in training run (Używanie wpisów tajnych w przebiegach trenowania).
get_secrets(secrets)
Parametry
Lista nazw wpisów tajnych, dla których mają być zwracane wartości wpisów tajnych.
Zwraca
Zwraca słownik znalezionych i nie znaleziono wpisów tajnych.
Typ zwracany
get_snapshot_id
Pobierz najnowszy identyfikator migawki.
get_snapshot_id()
Zwraca
Najnowszy identyfikator migawki.
Typ zwracany
get_status
Pobierz najnowszy stan przebiegu.
Zwracane wspólne wartości to "Running", "Completed" i "Failed".
get_status()
Zwraca
Najnowszy stan.
Typ zwracany
Uwagi
NotStarted — jest to tymczasowy stan obiektów Uruchom po stronie klienta przed przesłaniem chmury.
Uruchamianie — uruchamianie zaczęło być przetwarzane w chmurze. Obiekt wywołujący ma w tym momencie identyfikator uruchomienia.
Aprowizowanie — zwracane po utworzeniu zasobów obliczeniowych na żądanie dla danego przesłania zadania.
Przygotowywanie — środowisko uruchamiania jest przygotowywane:
Kompilacja obrazu platformy docker
Konfiguracja środowiska conda
Queued — zadanie jest w kolejce w obiekcie docelowym obliczeniowym. Na przykład w usłudze BatchAI zadanie jest w stanie w kolejce
czekając na gotowość wszystkich żądanych węzłów.
Uruchomiono — zadanie zostało uruchomione w docelowym obiekcie obliczeniowym.
Finalizowanie — kod użytkownika został ukończony, a przebieg znajduje się na etapach przetwarzania końcowego.
CancelRequested — zażądano anulowania zadania.
Ukończono — przebieg został ukończony pomyślnie. Obejmuje to zarówno kod użytkownika, jak i uruchamianie
etapy przetwarzania końcowego.
Niepowodzenie — przebieg zakończył się niepowodzeniem. Zazwyczaj właściwość Error w przebiegu zawiera szczegółowe informacje o przyczynie.
Anulowano — następuje żądanie anulowania i wskazuje, że przebieg został pomyślnie anulowany.
Brak odpowiedzi — w przypadku przebiegów z włączonymi pulsami nie wysłano ostatnio żadnego pulsu.
run = experiment.submit(config)
while run.get_status() not in ['Completed', 'Failed']: # For example purposes only, not exhaustive
print('Run {} not in terminal state'.format(run.id))
time.sleep(10)
get_submitted_run
PRZESTARZAŁE. Użyj polecenia get_context.
Pobierz przesłany przebieg dla tego eksperymentu.
get_submitted_run(**kwargs)
Zwraca
Przesłany przebieg.
Typ zwracany
get_tags
Pobierz najnowszy zestaw tagów modyfikowalnych w przebiegu z usługi.
get_tags()
Zwraca
Tagi przechowywane w obiekcie run.
Typ zwracany
list
Pobierz listę przebiegów w eksperymencie określonym przez opcjonalne filtry.
static list(experiment, type=None, tags=None, properties=None, status=None, include_children=False, _rehydrate_runs=True)
Parametry
Jeśli zostanie określony, zwraca przebiegi pasujące do określonego "tagu" lub {"tag": "value"}.
Jeśli zostanie określony, zwraca przebiegi zgodne z określoną właściwością lub {"property": "value"}.
- include_children
- bool
Jeśli ustawiono wartość true, pobierz wszystkie uruchomienia, nie tylko te najwyższego poziomu.
- _rehydrate_runs
- bool
Jeśli ustawiono wartość True (domyślnie), użyje zarejestrowanego dostawcy, aby ponownie zainicjować obiekt dla tego typu zamiast podstawowego uruchomienia.
Zwraca
Lista przebiegów.
Typ zwracany
Uwagi
Poniższy przykład kodu przedstawia niektóre zastosowania list
metody .
favorite_completed_runs = Run.list(experiment, status='Completed', tags='favorite')
all_distinct_runs = Run.list(experiment)
and_their_children = Run.list(experiment, include_children=True)
only_script_runs = Run.list(experiment, type=ScriptRun.RUN_TYPE)
list_by_compute
Pobierz listę przebiegów w obliczeniach określonych przez opcjonalne filtry.
static list_by_compute(compute, type=None, tags=None, properties=None, status=None)
Parametry
Jeśli zostanie określony, zwraca przebiegi pasujące do określonego "tagu" lub {"tag": "value"}.
Jeśli zostanie określony, zwraca przebiegi zgodne z określoną właściwością lub {"property": "value"}.
- status
- str
Jeśli określono, zwraca przebiegi ze stanem określonym "status". Dozwolone wartości to "Running" (Uruchomione) i "Queued".
Zwraca
generator ~_restclient.models.RunDto
Typ zwracany
log
Zarejestruj wartość metryki do przebiegu przy użyciu podanej nazwy.
log(name, value, description='', step=None)
Parametry
- value
Wartość, która ma zostać wysłana do usługi.
Uwagi
Rejestrowanie metryki w przebiegu powoduje, że metryka ma być przechowywana w rekordzie uruchamiania w eksperymencie. Tę samą metrykę można rejestrować wiele razy w ramach przebiegu. Wynik jest uznawany za wektor tej metryki. Jeśli krok jest określony dla metryki, musi zostać określony dla wszystkich wartości.
log_accuracy_table
Rejestrowanie tabeli dokładności w magazynie artefaktów.
Metryka tabeli dokładności to wielowymiarowa metryka, która może służyć do tworzenia wielu typów wykresów liniowych, które różnią się stale w przestrzeni przewidywanych prawdopodobieństwa. Przykłady tych wykresów to krzywe ROC, precyzja i krzywe podnoszenia.
Obliczenie tabeli dokładności jest podobne do obliczania krzywej ROC. Krzywa ROC przechowuje prawdziwe dodatnie wskaźniki i fałszywie dodatnie wskaźniki przy wielu różnych progach prawdopodobieństwa. Tabela dokładności przechowuje nieprzetworzona liczba wyników prawdziwie dodatnich, wyników fałszywie dodatnich, prawdziwie ujemnych i fałszywie ujemnych przy wielu progach prawdopodobieństwa.
Istnieją dwie metody służące do wybierania progów: "prawdopodobieństwo" i "percentyl". Różnią się one sposobem próbkowania od przestrzeni przewidywanych prawdopodobieństwa.
Progi prawdopodobieństwa są równomiernie odstępami od 0 do 1. Jeśli NUM_POINTS wynosi 5, progi prawdopodobieństwa to [0.0, 0.25, 0.5, 0.75, 1.0].
Progi percentylu są rozmieszczone zgodnie z rozkładem przewidywanych prawdopodobieństwa. Każdy próg odpowiada percentylowi danych na progu prawdopodobieństwa. Jeśli na przykład NUM_POINTS wynosi 5, pierwszy próg będzie wynosić 0 percentyl, drugi na 25. percentyl, trzeci na 50. i tak dalej.
Tabele prawdopodobieństwa i tabele percentylu są zarówno listami 3D, gdzie pierwszy wymiar reprezentuje etykietę klasy, drugi wymiar reprezentuje próbkę przy jednym progu (skale z NUM_POINTS), a trzeci wymiar zawsze ma 4 wartości: TP, FP, TN, FN i zawsze w tej kolejności.
Wartości pomyłek (TP, FP, TN, FN) są obliczane przy użyciu jednej strategii a rest. Aby uzyskać więcej informacji, zobacz następujący link: https://en.wikipedia.org/wiki/Multiclass_classification
N = liczba przykładów w zestawie danych weryfikacji (na przykład 200) M = # progi = # próbki pobrane z obszaru prawdopodobieństwa (na przykład 5) C = # klasy w pełnym zestawie danych (przykład 3 w przykładzie)
Niektóre niezmienne wartości tabeli dokładności:
- TP + FP + TN + FN = N dla wszystkich progów dla wszystkich klas
- Tp + FN jest taka sama we wszystkich progach dla dowolnej klasy
- TN + FP jest taka sama we wszystkich progach dla dowolnej klasy
- Tabele prawdopodobieństwa i tabele percentylu mają kształt [C, M, 4]
Uwaga: język M może być dowolną wartością i kontroluje rozdzielczość wykresów Jest to niezależne od zestawu danych, jest definiowane podczas obliczania metryk i zajmuje się miejscem do magazynowania, czasem obliczeń i rozdzielczością.
Etykiety klas powinny być ciągami, wartości pomyłek powinny być liczbami całkowitymi, a progi powinny być zmiennoprzecinkowe.
log_accuracy_table(name, value, description='')
Parametry
Uwagi
Przykład prawidłowej wartości JSON:
{
"schema_type": "accuracy_table",
"schema_version": "1.0.1",
"data": {
"probability_tables": [
[
[82, 118, 0, 0],
[75, 31, 87, 7],
[66, 9, 109, 16],
[46, 2, 116, 36],
[0, 0, 118, 82]
],
[
[60, 140, 0, 0],
[56, 20, 120, 4],
[47, 4, 136, 13],
[28, 0, 140, 32],
[0, 0, 140, 60]
],
[
[58, 142, 0, 0],
[53, 29, 113, 5],
[40, 10, 132, 18],
[24, 1, 141, 34],
[0, 0, 142, 58]
]
],
"percentile_tables": [
[
[82, 118, 0, 0],
[82, 67, 51, 0],
[75, 26, 92, 7],
[48, 3, 115, 34],
[3, 0, 118, 79]
],
[
[60, 140, 0, 0],
[60, 89, 51, 0],
[60, 41, 99, 0],
[46, 5, 135, 14],
[3, 0, 140, 57]
],
[
[58, 142, 0, 0],
[56, 93, 49, 2],
[54, 47, 95, 4],
[41, 10, 132, 17],
[3, 0, 142, 55]
]
],
"probability_thresholds": [0.0, 0.25, 0.5, 0.75, 1.0],
"percentile_thresholds": [0.0, 0.01, 0.24, 0.98, 1.0],
"class_labels": ["0", "1", "2"]
}
}
log_confusion_matrix
Rejestrowanie macierzy pomyłek w magazynie artefaktów.
Rejestruje otokę wokół macierzy pomyłek sklearn. Dane metryk zawierają etykiety klas i listę 2D dla samej macierzy. Aby uzyskać więcej informacji na temat sposobu obliczania metryki, zobacz następujący link: https://scikit-learn.org/stable/modules/generated/sklearn.metrics.confusion_matrix.html
log_confusion_matrix(name, value, description='')
Parametry
Uwagi
Przykład prawidłowej wartości JSON:
{
"schema_type": "confusion_matrix",
"schema_version": "1.0.0",
"data": {
"class_labels": ["0", "1", "2", "3"],
"matrix": [
[3, 0, 1, 0],
[0, 1, 0, 1],
[0, 0, 1, 0],
[0, 0, 0, 1]
]
}
}
log_image
Rejestrowanie metryki obrazu w rekordzie uruchamiania.
log_image(name, path=None, plot=None, description='')
Parametry
- plot
- <xref:matplotlib.pyplot>
Wykres do rejestrowania jako obrazu.
Uwagi
Ta metoda służy do rejestrowania pliku obrazu lub wykresu matplotlib do uruchomienia. Te obrazy będą widoczne i porównywalne w rekordzie przebiegu.
log_list
Zarejestruj listę wartości metryk do przebiegu o podanej nazwie.
log_list(name, value, description='')
Parametry
log_predictions
Rejestrowanie przewidywań w magazynie artefaktów.
Rejestruje wynik metryki, który może służyć do porównywania rozkładów rzeczywistych wartości docelowych do rozkładu przewidywanych wartości dla zadania regresji.
Przewidywania są binned, a odchylenia standardowe są obliczane dla słupków błędów na wykresie liniowym.
log_predictions(name, value, description='')
Parametry
Uwagi
Przykład prawidłowej wartości JSON:
{
"schema_type": "predictions",
"schema_version": "1.0.0",
"data": {
"bin_averages": [0.25, 0.75],
"bin_errors": [0.013, 0.042],
"bin_counts": [56, 34],
"bin_edges": [0.0, 0.5, 1.0]
}
}
log_residuals
Rejestruje reszty w magazynie artefaktów.
Rejestruje dane potrzebne do wyświetlenia histogramu reszt zadania regresji. Reszty są przewidywane — rzeczywiste.
Powinna istnieć jeszcze jedna krawędź niż liczba liczb. Zapoznaj się z dokumentacją histogramu numpy, aby zapoznać się z przykładami użycia liczb i krawędzi do reprezentowania histogramu. https://docs.scipy.org/doc/numpy/reference/generated/numpy.histogram.html
log_residuals(name, value, description='')
Parametry
Uwagi
Przykład prawidłowej wartości JSON:
{
"schema_type": "residuals",
"schema_version": "1.0.0",
"data": {
"bin_edges": [50, 100, 200, 300, 350],
"bin_counts": [0.88, 20, 30, 50.99]
}
}
log_row
Rejestrowanie metryki wiersza do przebiegu przy użyciu podanej nazwy.
log_row(name, description=None, **kwargs)
Parametry
Uwagi
Za pomocą log_row
polecenia tworzy metrykę tabeli z kolumnami zgodnie z opisem w artykule kwargs. Każdy nazwany parametr generuje kolumnę z określoną wartością. log_row
można wywołać raz, aby zarejestrować dowolną krotkę lub wiele razy w pętli w celu wygenerowania pełnej tabeli.
citrus = ['orange', 'lemon', 'lime']
sizes = [ 10, 7, 3]
for index in range(len(citrus)):
run.log_row("citrus", fruit = citrus[index], size=sizes[index])
log_table
Rejestrowanie metryki tabeli w przebiegu przy użyciu podanej nazwy.
log_table(name, value, description='')
Parametry
- value
- dict
Wartość tabeli metryki, słownika, w którym klucze są kolumnami, które mają być publikowane w usłudze.
register_model
Rejestrowanie modelu na potrzeby operacjonalizacji.
register_model(model_name, model_path=None, tags=None, properties=None, model_framework=None, model_framework_version=None, description=None, datasets=None, sample_input_dataset=None, sample_output_dataset=None, resource_configuration=None, **kwargs)
Parametry
- model_path
- str
Względna ścieżka chmury do modelu, na przykład "outputs/modelname".
Jeśli nie określono wartości (Brak), model_name
jest używana jako ścieżka.
Słownik właściwości wartości klucza do przypisania do modelu. Nie można zmienić tych właściwości po utworzeniu modelu, jednak można dodać nowe pary wartości klucza.
- model_framework
- str
Struktura modelu do zarejestrowania. Obecnie obsługiwane platformy: TensorFlow, ScikitLearn, Onnx, Custom, Multi
- datasets
- list[(str, AbstractDataset)]
Lista krotki, w których pierwszy element opisuje relację modelu zestawu danych, a drugi element to zestaw danych.
- sample_input_dataset
- AbstractDataset
Opcjonalny. Przykładowy zestaw danych wejściowych dla zarejestrowanego modelu
- sample_output_dataset
- AbstractDataset
Opcjonalny. Przykładowy wyjściowy zestaw danych dla zarejestrowanego modelu
- resource_configuration
- ResourceConfiguration
Opcjonalny. Konfiguracja zasobu do uruchamiania zarejestrowanego modelu
Zwraca
Zarejestrowany model.
Typ zwracany
Uwagi
model = best_run.register_model(model_name = 'best_model', model_path = 'outputs/model.pkl')
remove_tags
Usuń listę tagów modyfikowalnych w tym przebiegu.
remove_tags(tags)
Parametry
Zwraca
Tagi przechowywane w obiekcie uruchamiania
restore_snapshot
Przywróć migawkę jako plik ZIP. Zwraca ścieżkę do pliku ZIP.
restore_snapshot(snapshot_id=None, path=None)
Parametry
- snapshot_id
- str
Identyfikator migawki do przywrócenia. Najnowsza wersja jest używana, jeśli nie zostanie określona.
Zwraca
Ścieżka.
Typ zwracany
set_tags
Dodaj lub zmodyfikuj zestaw tagów w przebiegu. Tagi, które nie zostały przekazane w słowniku, pozostają nietknięte.
Można również dodać proste tagi ciągów. Gdy te tagi są wyświetlane w słowniku tagów jako klucze, mają wartość None. Aby uzyskać więcej informacji, zobacz Tag i znajdź uruchomienia.
set_tags(tags)
Parametry
start
Oznacz przebieg jako rozpoczęty.
Jest to zwykle używane w zaawansowanych scenariuszach, gdy przebieg został utworzony przez innego aktora.
start()
submit_child
Prześlij eksperyment i zwróć aktywne uruchomienie podrzędne.
submit_child(config, tags=None, **kwargs)
Parametry
Zwraca
Obiekt run.
Typ zwracany
Uwagi
Submit to asynchroniczne wywołanie platformy Azure Machine Learning w celu wykonania wersji próbnej na sprzęcie lokalnym lub zdalnym. W zależności od konfiguracji przesyłanie automatycznie przygotuje środowiska wykonawcze, wykonaj kod i przechwyci kod źródłowy oraz wyniki w historii uruchamiania eksperymentu.
Aby przesłać eksperyment, należy najpierw utworzyć obiekt konfiguracji opisujący sposób uruchamiania eksperymentu. Konfiguracja zależy od wymaganego typu wersji próbnej.
Przykładowy sposób przesyłania eksperymentu podrzędnego z komputera lokalnego przy użyciu ScriptRunConfig jest następujący:
from azureml.core import ScriptRunConfig
# run a trial from the train.py code in your current directory
config = ScriptRunConfig(source_directory='.', script='train.py',
run_config=RunConfiguration())
run = parent_run.submit_child(config)
# get the url to view the progress of the experiment and then wait
# until the trial is complete
print(run.get_portal_url())
run.wait_for_completion()
Aby uzyskać szczegółowe informacje na temat konfigurowania przebiegu, zobacz submit.
tag
Oznacz przebieg kluczem ciągu i opcjonalną wartością ciągu.
tag(key, value=None)
Parametry
Uwagi
Tagi i właściwości przebiegu to słowniki ciągu —> ciąg. Różnica między nimi polega na niezmienności: tagi można ustawiać, aktualizować i usuwać, podczas gdy właściwości można dodawać tylko. Dzięki temu właściwości są bardziej odpowiednie dla wyzwalaczy zachowania związanych z systemem/przepływem pracy, podczas gdy tagi są ogólnie dostępne dla użytkowników eksperymentu i mają znaczenie.
run = experiment.start_logging()
run.tag('DeploymentCandidate')
run.tag('modifiedBy', 'Master CI')
run.tag('modifiedBy', 'release pipeline') # Careful, tags are mutable
run.add_properties({'BuildId': os.environ.get('VSTS_BUILD_ID')}) # Properties are not
tags = run.get_tags()
# tags = { 'DeploymentCandidate': None, 'modifiedBy': 'release pipeline' }
take_snapshot
Zapisz migawkę pliku lub folderu wejściowego.
take_snapshot(file_or_folder_path)
Parametry
Zwraca
Zwraca identyfikator migawki.
Typ zwracany
Uwagi
Migawki mają być kodem źródłowym używanym do wykonania przebiegu eksperymentu. Są one przechowywane przy użyciu przebiegu, aby można było replikować wersję próbną przebiegu w przyszłości.
Uwaga
Migawki są wykonywane automatycznie po submit wywołaniu. Zazwyczaj ta metoda take_snapshot jest wymagana tylko w przypadku przebiegów interakcyjnych (notesów).
upload_file
Przekaż plik do rekordu uruchomienia.
upload_file(name, path_or_stream, datastore_name=None)
Parametry
Typ zwracany
Uwagi
run = experiment.start_logging()
run.upload_file(name='important_file', path_or_stream="path/on/disk/file.txt")
Uwaga
Uruchamia automatycznie przechwytywanie pliku w określonym katalogu wyjściowym, który domyślnie ma wartość "./outputs" dla większości typów uruchamiania. Użyj upload_file tylko wtedy, gdy dodatkowe pliki muszą zostać przekazane lub nie określono katalogu wyjściowego.
upload_files
Przekaż pliki do rekordu uruchomienia.
upload_files(names, paths, return_artifacts=False, timeout_seconds=None, datastore_name=None)
Parametry
- names
- list
Nazwy plików do przekazania. W przypadku ustawienia należy również ustawić ścieżki.
- paths
- list
Względne ścieżki lokalne do plików do przekazania. W przypadku ustawienia nazwy są wymagane.
- return_artifacts
- bool
Wskazuje, że obiekt artefaktu powinien zostać zwrócony dla każdego przekazanego pliku.
Uwagi
upload_files
ma taki sam wpływ jak upload_file
w przypadku oddzielnych plików, jednak w przypadku korzystania z usługi istnieją korzyści związane z upload_files
wydajnością i wykorzystaniem zasobów.
import os
run = experiment.start_logging()
file_name_1 = 'important_file_1'
file_name_2 = 'important_file_2'
run.upload_files(names=[file_name_1, file_name_2],
paths=['path/on/disk/file_1.txt', 'other/path/on/disk/file_2.txt'])
run.download_file(file_name_1, 'file_1.txt')
os.mkdir("path") # The path must exist
run.download_file(file_name_2, 'path/file_2.txt')
Uwaga
Uruchamia automatyczne przechwytywanie plików w określonym katalogu wyjściowym, który domyślnie ma wartość "./outputs" dla większości typów uruchamiania. Użyj upload_files tylko wtedy, gdy dodatkowe pliki muszą zostać przekazane lub nie określono katalogu wyjściowego.
upload_folder
Przekaż określony folder do podanej nazwy prefiksu.
upload_folder(name, path, datastore_name=None)
Parametry
Uwagi
run = experiment.start_logging()
run.upload_folder(name='important_files', path='path/on/disk')
run.download_file('important_files/existing_file.txt', 'local_file.txt')
Uwaga
Uruchamia automatyczne przechwytywanie plików w określonym katalogu wyjściowym, który domyślnie ma wartość "./outputs" dla większości typów uruchamiania. Użyj upload_folder tylko wtedy, gdy dodatkowe pliki muszą zostać przekazane lub nie określono katalogu wyjściowego.
wait_for_completion
Poczekaj na ukończenie tego przebiegu. Zwraca obiekt statusu po oczekiwaniu.
wait_for_completion(show_output=False, wait_post_processing=False, raise_on_error=True)
Parametry
- show_output
- bool
Wskazuje, czy dane wyjściowe uruchomienia mają być wyświetlane w pliku sys.stdout.
- wait_post_processing
- bool
Wskazuje, czy poczekać na zakończenie przetwarzania po zakończeniu przebiegu.
- raise_on_error
- bool
Wskazuje, czy błąd jest zgłaszany, gdy przebieg jest w stanie niepowodzenia.
Zwraca
Obiekt stanu.
Typ zwracany
Atrybuty
description
Zwróć opis przebiegu.
Opcjonalny opis przebiegu jest ciągiem określonym przez użytkownika przydatnym do opisywania przebiegu.
Zwraca
Opis przebiegu.
Typ zwracany
display_name
Zwróć nazwę wyświetlaną przebiegu.
Opcjonalna nazwa wyświetlana przebiegu jest ciągiem określonym przez użytkownika przydatnym do późniejszej identyfikacji przebiegu.
Zwraca
Nazwa wyświetlana przebiegu.
Typ zwracany
experiment
Pobierz eksperyment zawierający przebieg.
Zwraca
Pobiera eksperyment odpowiadający przebiegowi.
Typ zwracany
id
Pobierz identyfikator uruchomienia.
Identyfikator przebiegu jest identyfikatorem unikatowym w całym zawierającym eksperymencie.
Zwraca
Identyfikator przebiegu.
Typ zwracany
name
PRZESTARZAŁE. Użyj display_name.
Opcjonalna nazwa przebiegu jest ciągiem określonym przez użytkownika przydatnym do późniejszej identyfikacji przebiegu.
Zwraca
Identyfikator przebiegu.
Typ zwracany
number
Pobierz numer uruchomienia.
Monotonicznie rosnąca liczba reprezentująca kolejność przebiegów w eksperymencie.
Zwraca
Numer przebiegu.
Typ zwracany
parent
Pobierz uruchomienie nadrzędne dla tego przebiegu z usługi.
Uruchomienia mogą mieć opcjonalny element nadrzędny, co powoduje potencjalną hierarchię drzewa przebiegów. Aby zarejestrować metryki w uruchomieniu nadrzędnym, użyj log metody obiektu nadrzędnego, na przykład run.parent.log()
.
Zwraca
Uruchomienie nadrzędne lub Brak, jeśli go nie ustawiono.
Typ zwracany
properties
Zwróć niezmienne właściwości tego przebiegu.
Zwraca
Lokalnie buforowane właściwości przebiegu.
Typ zwracany
Uwagi
Właściwości obejmują niezmienne informacje generowane przez system, takie jak czas trwania, data wykonania, użytkownik itp.
status
Zwróć stan obiektu przebiegu.
tags
Zwróć zestaw tagów modyfikowalnych w tym przebiegu.
Zwraca
Tagi przechowywane w obiekcie run.
Typ zwracany
type
Pobierz typ przebiegu.
Wskazuje sposób tworzenia lub konfigurowania przebiegu.
Zwraca
Typ przebiegu.
Typ zwracany
Opinia
https://aka.ms/ContentUserFeedback.
Dostępne już wkrótce: W 2024 r. będziemy stopniowo wycofywać zgłoszenia z serwisu GitHub jako mechanizm przesyłania opinii na temat zawartości i zastępować go nowym systemem opinii. Aby uzyskać więcej informacji, sprawdź:Prześlij i wyświetl opinię dla