Przeczytaj w języku angielskim

Udostępnij za pośrednictwem


Run Klasa

Definiuje klasę bazową dla wszystkich przebiegów eksperymentów usługi Azure Machine Learning.

Przebieg reprezentuje jedną wersję próbną eksperymentu. Uruchomienia służą do monitorowania asynchronicznego wykonywania wersji próbnej, metryk dziennika i przechowywania danych wyjściowych wersji próbnej oraz analizowania wyników i uzyskiwania dostępu do artefaktów generowanych przez wersję próbną.

Obiekty uruchamiania są tworzone podczas przesyłania skryptu do trenowania modelu w wielu różnych scenariuszach w usłudze Azure Machine Learning, w tym przebiegów funkcji HyperDrive, przebiegów potoków i przebiegów automatycznego uczenia maszynowego. Obiekt Run jest również tworzony podczas submit korzystania z klasy lub start_logging z tą klasą Experiment .

Aby rozpocząć pracę z eksperymentami i przebiegami, zobacz

Zainicjuj obiekt Uruchom.

Dziedziczenie
azureml._run_impl.run_base._RunBase
Run

Konstruktor

Run(experiment, run_id, outputs=None, **kwargs)

Parametry

Nazwa Opis
experiment
Wymagane

Zawierający eksperyment.

run_id
Wymagane
str

Identyfikator przebiegu.

outputs
str

Dane wyjściowe do śledzenia.

Domyślna wartość: None
_run_dto
Wymagane
<xref:azureml._restclient.models.run_dto.RunDto>

Tylko do użytku wewnętrznego.

kwargs
Wymagane

Słownik dodatkowych parametrów konfiguracji.

experiment
Wymagane

Zawierający eksperyment.

run_id
Wymagane
str

Identyfikator przebiegu.

outputs
Wymagane
str

Dane wyjściowe do śledzenia.

kwargs
Wymagane

Słownik dodatkowych parametrów konfiguracji.

Uwagi

Przebieg reprezentuje jedną wersję próbną eksperymentu. Obiekt Run służy do monitorowania asynchronicznego wykonywania wersji próbnej, metryk dziennika i przechowywania danych wyjściowych wersji próbnej oraz analizowania wyników i uzyskiwania dostępu do artefaktów generowanych przez wersję próbną.

Uruchamianie jest używane wewnątrz kodu eksperymentowania w celu rejestrowania metryk i artefaktów w usłudze Historia uruchamiania.

Uruchamianie jest używane poza eksperymentami w celu monitorowania postępu oraz wykonywania zapytań i analizowania wygenerowanych metryk i wyników.

Funkcja Uruchom obejmuje następujące funkcje:

  • Przechowywanie i pobieranie metryk i danych

  • Przekazywanie i pobieranie plików

  • Używanie tagów oraz hierarchii podrzędnej w celu łatwego wyszukiwania poprzednich przebiegów

  • Rejestrowanie przechowywanych plików modelu jako modelu, który można zoperacjonalizować

  • Przechowywanie, modyfikowanie i pobieranie właściwości przebiegu

  • Ładowanie bieżącego uruchomienia ze środowiska zdalnego za pomocą get_context metody

  • Efektywne tworzenie migawek pliku lub katalogu w celu odtworzenia

Ta klasa współpracuje z Experiment tymi scenariuszami:

  • Tworzenie przebiegu przez wykonanie kodu przy użyciu polecenia submit

  • Tworzenie przebiegu interakcyjnego w notesie przy użyciu polecenia start_logging

  • Rejestrowanie metryk i przekazywanie artefaktów w eksperymencie, na przykład podczas korzystania z log

  • Odczytywanie metryk i pobieranie artefaktów podczas analizowania wyników eksperymentalnych, takich jak podczas korzystania z get_metrics

Aby przesłać przebieg, utwórz obiekt konfiguracji opisujący sposób uruchamiania eksperymentu. Oto przykłady różnych obiektów konfiguracji, których można użyć:

  • ScriptRunConfig

  • azureml.train.automl.automlconfig.AutoMLConfig

  • azureml.train.hyperdrive.HyperDriveConfig

  • azureml.pipeline.core.Pipeline

  • azureml.pipeline.core.PublishedPipeline

  • azureml.pipeline.core.PipelineEndpoint

Podczas trenowania eksperymentu można dodać następujące metryki do przebiegu.

  • Wartość skalarna

    • Zarejestruj wartość liczbową lub ciągową do przebiegu przy użyciu podanej nazwy przy użyciu polecenia log. Rejestrowanie metryki w przebiegu powoduje, że metryka ma być przechowywana w rekordzie uruchamiania w eksperymencie. Tę samą metrykę można rejestrować wiele razy w ramach przebiegu. Wynik jest uznawany za wektor tej metryki.

    • Przykład: run.log("accuracy", 0.95)

  • Lista

    • Zarejestruj listę wartości do uruchomienia przy użyciu podanej nazwy przy użyciu polecenia log_list.

    • Przykład: run.log_list("accuracies", [0.6, 0.7, 0.87])

  • Wiersz

    • Użycie log_row metody tworzy metrykę z wieloma kolumnami zgodnie z opisem w temacie kwargs. Każdy nazwany parametr generuje kolumnę z określoną wartością. log_row można wywołać raz, aby zarejestrować dowolną krotkę lub wiele razy w pętli w celu wygenerowania pełnej tabeli.

    • Przykład: run.log_row("Y over X", x=1, y=0.4)

  • Tabela

    • Rejestrowanie obiektu słownika w przebiegu przy użyciu podanej nazwy przy użyciu polecenia log_table.

    • Przykład: run.log_table("Y over X", {"x":[1, 2, 3], "y":[0.6, 0.7, 0.89]})

  • Obraz

    • Rejestrowanie obrazu w rekordzie uruchamiania. Służy log_image do rejestrowania pliku obrazu lub wykresu matplotlib do uruchomienia. Te obrazy będą widoczne i porównywalne w rekordzie przebiegu.

    • Przykład: run.log_image("ROC", path)

Metody

add_properties

Dodaj niezmienne właściwości do przebiegu.

Tagi i właściwości (zarówno dict[str, str]) różnią się w ich niezmienności. Właściwości są niezmienne, więc tworzą stały rekord do celów inspekcji. Tagi są modyfikowalne. Aby uzyskać więcej informacji na temat pracy z tagami i właściwościami, zobacz tagowanie i znajdowanie przebiegów.

add_type_provider

Rozszerzalność haka dla niestandardowych typów uruchomień przechowywanych w historii uruchamiania.

cancel

Oznacz przebieg jako anulowany.

Jeśli istnieje skojarzone zadanie z ustawionym polem cancel_uri, zakończ to zadanie.

child_run

Utwórz uruchomienie podrzędne.

clean

Usuń pliki odpowiadające bieżącemu uruchomieniu w elemencie docelowym określonym w konfiguracji przebiegu.

complete

Poczekaj na przetworzenie kolejki zadań.

Następnie przebieg jest oznaczony jako ukończony. Jest to zwykle używane w scenariuszach notesu interaktywnego.

create_children

Utwórz jedno lub wiele przebiegów podrzędnych.

download_file

Pobierz skojarzony plik z magazynu.

download_files

Pobierz pliki z danego prefiksu magazynu (nazwy folderu) lub całego kontenera, jeśli prefiks jest nieokreślony.

fail

Oznacz przebieg jako niepowodzenie.

Opcjonalnie ustaw właściwość Error przebiegu z komunikatem lub wyjątkiem przekazanym na error_detailswartość .

flush

Poczekaj na przetworzenie kolejki zadań.

get

Pobierz przebieg dla tego obszaru roboczego z jego identyfikatorem uruchomienia.

get_all_logs

Pobierz wszystkie dzienniki przebiegu do katalogu.

get_children

Pobierz wszystkie elementy podrzędne dla bieżącego przebiegu wybranego przez określone filtry.

get_context

Zwraca bieżący kontekst usługi.

Użyj tej metody, aby pobrać bieżący kontekst usługi na potrzeby rejestrowania metryk i przekazywania plików. Jeśli allow_offline ma wartość True (wartość domyślna), akcje względem obiektu Run zostaną wydrukowane zgodnie ze standardem.

get_detailed_status

Pobierz najnowszy stan przebiegu. Jeśli stan przebiegu to "Queued", zostanie wyświetlony szczegóły.

get_details

Pobierz definicję, informacje o stanie, bieżące pliki dziennika i inne szczegóły przebiegu.

get_details_with_logs

Zwracany stan uruchomienia, w tym zawartość pliku dziennika.

get_environment

Pobierz definicję środowiska, która została użyta przez to uruchomienie.

get_file_names

Wyświetl listę plików przechowywanych w skojarzeniu z przebiegiem.

get_metrics

Pobierz zarejestrowane metryki do uruchomienia.

Jeśli recursive ma wartość True (fałsz domyślnie), pobierz metryki dla przebiegów w poddrzewie danego przebiegu.

get_properties

Pobierz najnowsze właściwości przebiegu z usługi.

get_secret

Pobierz wartość wpisu tajnego z kontekstu przebiegu.

Pobierz wartość wpisu tajnego dla podanej nazwy. Nazwa wpisu tajnego odwołuje się do wartości przechowywanej w usłudze Azure Key Vault skojarzonej z obszarem roboczym. Przykład pracy z wpisami tajnymi można znaleźć w temacie Use secrets in training run (Używanie wpisów tajnych w przebiegach trenowania).

get_secrets

Pobierz wartości wpisów tajnych dla danej listy nazw wpisów tajnych.

Pobierz słownik znalezionych i nie znaleziono wpisów tajnych dla podanej listy nazw. Każda nazwa wpisu tajnego odwołuje się do wartości przechowywanej w usłudze Azure Key Vault skojarzonej z obszarem roboczym. Przykład pracy z wpisami tajnymi można znaleźć w temacie Use secrets in training run (Używanie wpisów tajnych w przebiegach trenowania).

get_snapshot_id

Pobierz najnowszy identyfikator migawki.

get_status

Pobierz najnowszy stan przebiegu.

Zwracane wspólne wartości to "Running", "Completed" i "Failed".

get_submitted_run

PRZESTARZAŁE. Użyj polecenia get_context.

Pobierz przesłany przebieg dla tego eksperymentu.

get_tags

Pobierz najnowszy zestaw tagów modyfikowalnych w przebiegu z usługi.

list

Pobierz listę przebiegów w eksperymencie określonym przez opcjonalne filtry.

list_by_compute

Pobierz listę przebiegów w obliczeniach określonych przez opcjonalne filtry.

log

Zarejestruj wartość metryki do przebiegu przy użyciu podanej nazwy.

log_accuracy_table

Rejestrowanie tabeli dokładności w magazynie artefaktów.

Metryka tabeli dokładności to wielowymiarowa metryka, która może służyć do tworzenia wielu typów wykresów liniowych, które różnią się stale w przestrzeni przewidywanych prawdopodobieństwa. Przykłady tych wykresów to krzywe ROC, precyzja i krzywe podnoszenia.

Obliczenie tabeli dokładności jest podobne do obliczania krzywej ROC. Krzywa ROC przechowuje prawdziwe dodatnie wskaźniki i fałszywie dodatnie wskaźniki przy wielu różnych progach prawdopodobieństwa. Tabela dokładności przechowuje nieprzetworzona liczba wyników prawdziwie dodatnich, wyników fałszywie dodatnich, prawdziwie ujemnych i fałszywie ujemnych przy wielu progach prawdopodobieństwa.

Istnieją dwie metody służące do wybierania progów: "prawdopodobieństwo" i "percentyl". Różnią się one sposobem próbkowania od przestrzeni przewidywanych prawdopodobieństwa.

Progi prawdopodobieństwa są równomiernie odstępami od 0 do 1. Jeśli NUM_POINTS wynosi 5, progi prawdopodobieństwa to [0.0, 0.25, 0.5, 0.75, 1.0].

Progi percentylu są rozmieszczone zgodnie z rozkładem przewidywanych prawdopodobieństwa. Każdy próg odpowiada percentylowi danych na progu prawdopodobieństwa. Jeśli na przykład NUM_POINTS wynosi 5, pierwszy próg będzie wynosić 0 percentyl, drugi na 25. percentyl, trzeci na 50. i tak dalej.

Tabele prawdopodobieństwa i tabele percentylu są zarówno listami 3D, gdzie pierwszy wymiar reprezentuje etykietę klasy, drugi wymiar reprezentuje próbkę przy jednym progu (skale z NUM_POINTS), a trzeci wymiar zawsze ma 4 wartości: TP, FP, TN, FN i zawsze w tej kolejności.

Wartości pomyłek (TP, FP, TN, FN) są obliczane przy użyciu jednej strategii a rest. Aby uzyskać więcej informacji, zobacz następujący link: https://en.wikipedia.org/wiki/Multiclass_classification

N = liczba przykładów w zestawie danych weryfikacji (na przykład 200) M = # progi = # próbki pobrane z obszaru prawdopodobieństwa (na przykład 5) C = # klasy w pełnym zestawie danych (przykład 3 w przykładzie)

Niektóre niezmienne wartości tabeli dokładności:

  • TP + FP + TN + FN = N dla wszystkich progów dla wszystkich klas
  • Tp + FN jest taka sama we wszystkich progach dla dowolnej klasy
  • TN + FP jest taka sama we wszystkich progach dla dowolnej klasy
  • Tabele prawdopodobieństwa i tabele percentylu mają kształt [C, M, 4]

Uwaga: język M może być dowolną wartością i kontroluje rozdzielczość wykresów Jest to niezależne od zestawu danych, jest definiowane podczas obliczania metryk i zajmuje się miejscem do magazynowania, czasem obliczeń i rozdzielczością.

Etykiety klas powinny być ciągami, wartości pomyłek powinny być liczbami całkowitymi, a progi powinny być zmiennoprzecinkowe.

log_confusion_matrix

Rejestrowanie macierzy pomyłek w magazynie artefaktów.

Rejestruje otokę wokół macierzy pomyłek sklearn. Dane metryk zawierają etykiety klas i listę 2D dla samej macierzy. Aby uzyskać więcej informacji na temat sposobu obliczania metryki, zobacz następujący link: https://scikit-learn.org/stable/modules/generated/sklearn.metrics.confusion_matrix.html

log_image

Rejestrowanie metryki obrazu w rekordzie uruchamiania.

log_list

Zarejestruj listę wartości metryk do przebiegu o podanej nazwie.

log_predictions

Rejestrowanie przewidywań w magazynie artefaktów.

Rejestruje wynik metryki, który może służyć do porównywania rozkładów rzeczywistych wartości docelowych do rozkładu przewidywanych wartości dla zadania regresji.

Przewidywania są binned, a odchylenia standardowe są obliczane dla słupków błędów na wykresie liniowym.

log_residuals

Rejestruje reszty w magazynie artefaktów.

Rejestruje dane potrzebne do wyświetlenia histogramu reszt zadania regresji. Reszty są przewidywane — rzeczywiste.

Powinna istnieć jeszcze jedna krawędź niż liczba liczb. Zapoznaj się z dokumentacją histogramu numpy, aby zapoznać się z przykładami użycia liczb i krawędzi do reprezentowania histogramu. https://docs.scipy.org/doc/numpy/reference/generated/numpy.histogram.html

log_row

Rejestrowanie metryki wiersza do przebiegu przy użyciu podanej nazwy.

log_table

Rejestrowanie metryki tabeli w przebiegu przy użyciu podanej nazwy.

register_model

Rejestrowanie modelu na potrzeby operacjonalizacji.

remove_tags

Usuń listę tagów modyfikowalnych w tym przebiegu.

restore_snapshot

Przywróć migawkę jako plik ZIP. Zwraca ścieżkę do pliku ZIP.

set_tags

Dodaj lub zmodyfikuj zestaw tagów w przebiegu. Tagi, które nie zostały przekazane w słowniku, pozostają nietknięte.

Można również dodać proste tagi ciągów. Gdy te tagi są wyświetlane w słowniku tagów jako klucze, mają wartość None. Aby uzyskać więcej informacji, zobacz Tag i znajdź uruchomienia.

start

Oznacz przebieg jako rozpoczęty.

Jest to zwykle używane w zaawansowanych scenariuszach, gdy przebieg został utworzony przez innego aktora.

submit_child

Prześlij eksperyment i zwróć aktywne uruchomienie podrzędne.

tag

Oznacz przebieg kluczem ciągu i opcjonalną wartością ciągu.

take_snapshot

Zapisz migawkę pliku lub folderu wejściowego.

upload_file

Przekaż plik do rekordu uruchomienia.

upload_files

Przekaż pliki do rekordu uruchomienia.

upload_folder

Przekaż określony folder do podanej nazwy prefiksu.

wait_for_completion

Poczekaj na ukończenie tego przebiegu. Zwraca obiekt statusu po oczekiwaniu.

add_properties

Dodaj niezmienne właściwości do przebiegu.

Tagi i właściwości (zarówno dict[str, str]) różnią się w ich niezmienności. Właściwości są niezmienne, więc tworzą stały rekord do celów inspekcji. Tagi są modyfikowalne. Aby uzyskać więcej informacji na temat pracy z tagami i właściwościami, zobacz tagowanie i znajdowanie przebiegów.

add_properties(properties)

Parametry

Nazwa Opis
properties
Wymagane

Ukryte właściwości przechowywane w obiekcie run.

add_type_provider

Rozszerzalność haka dla niestandardowych typów uruchomień przechowywanych w historii uruchamiania.

static add_type_provider(runtype, run_factory)

Parametry

Nazwa Opis
runtype
Wymagane
str

Wartość Elementu Run.type, dla którego zostanie wywołana fabryka. Przykłady obejmują "hyperdrive" lub "azureml.scriptrun", ale można je rozszerzyć za pomocą typów niestandardowych.

run_factory
Wymagane
<xref:function>

Funkcja z podpisem (Experiment, RunDto) —> uruchamianie, które ma być wywoływane podczas uruchamiania listy.

cancel

Oznacz przebieg jako anulowany.

Jeśli istnieje skojarzone zadanie z ustawionym polem cancel_uri, zakończ to zadanie.

cancel()

child_run

Utwórz uruchomienie podrzędne.

child_run(name=None, run_id=None, outputs=None)

Parametry

Nazwa Opis
name
str

Opcjonalna nazwa przebiegu podrzędnego, zazwyczaj określona dla "części".

Domyślna wartość: None
run_id
str

Opcjonalny identyfikator uruchomienia dla elementu podrzędnego, w przeciwnym razie jest generowany automatycznie. Zazwyczaj ten parametr nie jest ustawiony.

Domyślna wartość: None
outputs
str

Opcjonalny katalog wyjściowy do śledzenia dla elementu podrzędnego.

Domyślna wartość: None

Zwraca

Typ Opis
Run

Uruchom element podrzędny.

Uwagi

Służy to do izolowania części przebiegu w podsekcji. Można to zrobić w celu zidentyfikowania "części" przebiegu, które są interesujące do oddzielenia lub przechwycenia niezależnych metryk między interacją podprocesu.

Jeśli dla podrzędnego uruchomienia zostanie ustawiony katalog wyjściowy, zawartość tego katalogu zostanie przekazana do podrzędnego rekordu uruchamiania po zakończeniu działania podrzędnego.

clean

Usuń pliki odpowiadające bieżącemu uruchomieniu w elemencie docelowym określonym w konfiguracji przebiegu.

clean()

Zwraca

Typ Opis

Lista usuniętych plików.

complete

Poczekaj na przetworzenie kolejki zadań.

Następnie przebieg jest oznaczony jako ukończony. Jest to zwykle używane w scenariuszach notesu interaktywnego.

complete(_set_status=True)

Parametry

Nazwa Opis
_set_status

Wskazuje, czy zdarzenie stanu ma być wysyłane do śledzenia.

Domyślna wartość: True

create_children

Utwórz jedno lub wiele przebiegów podrzędnych.

create_children(count=None, tag_key=None, tag_values=None)

Parametry

Nazwa Opis
count
int

Opcjonalna liczba elementów podrzędnych do utworzenia.

Domyślna wartość: None
tag_key
str

Opcjonalny klucz do wypełnienia wpisu Tagi we wszystkich utworzonych elementach podrzędnych.

Domyślna wartość: None
tag_Values
Wymagane

Opcjonalna lista wartości, które będą mapować na tagi[tag_key] dla listy utworzonych przebiegów.

tag_values
Domyślna wartość: None

Zwraca

Typ Opis

Lista przebiegów podrzędnych.

Uwagi

Należy określić parametr count LUB parametry tag_key I tag_values .

download_file

Pobierz skojarzony plik z magazynu.

download_file(name, output_file_path=None, _validate_checksum=False)

Parametry

Nazwa Opis
name
Wymagane
str

Nazwa artefaktu do pobrania.

output_file_path
Wymagane
str

Ścieżka lokalna, w której ma być przechowywany artefakt.

download_files

Pobierz pliki z danego prefiksu magazynu (nazwy folderu) lub całego kontenera, jeśli prefiks jest nieokreślony.

download_files(prefix=None, output_directory=None, output_paths=None, batch_size=100, append_prefix=True, timeout_seconds=None)

Parametry

Nazwa Opis
prefix
Wymagane
str

Prefiks ścieżki plików w kontenerze, z którego mają być pobierane wszystkie artefakty.

output_directory
Wymagane
str

Opcjonalny katalog używany przez wszystkie ścieżki artefaktów jako prefiks.

output_paths
Wymagane
[str]

Opcjonalne ścieżki plików, w których mają być przechowywane pobrane artefakty. Powinna być unikatowa i dopasowywana długość ścieżek.

batch_size
Wymagane
int

Liczba plików do pobrania na partię. Wartość domyślna to 100 plików.

append_prefix
Wymagane

Opcjonalna flaga, czy dołączyć określony prefiks z końcowej ścieżki pliku wyjściowego. Jeśli wartość False, prefiks zostanie usunięty ze ścieżki pliku wyjściowego.

timeout_seconds
Wymagane
int

Limit czasu pobierania plików.

fail

Oznacz przebieg jako niepowodzenie.

Opcjonalnie ustaw właściwość Error przebiegu z komunikatem lub wyjątkiem przekazanym na error_detailswartość .

fail(error_details=None, error_code=None, _set_status=True)

Parametry

Nazwa Opis
error_details

Opcjonalne szczegóły błędu.

Domyślna wartość: None
error_code
str

Opcjonalny kod błędu dla klasyfikacji błędów.

Domyślna wartość: None
_set_status

Wskazuje, czy zdarzenie stanu ma być wysyłane do śledzenia.

Domyślna wartość: True

flush

Poczekaj na przetworzenie kolejki zadań.

flush(timeout_seconds=300)

Parametry

Nazwa Opis
timeout_seconds
int

Czas oczekiwania (w sekundach) na przetworzenie kolejki zadań.

Domyślna wartość: 300

get

Pobierz przebieg dla tego obszaru roboczego z jego identyfikatorem uruchomienia.

static get(workspace, run_id)

Parametry

Nazwa Opis
workspace
Wymagane

Zawierający obszar roboczy.

run_id
Wymagane

Identyfikator przebiegu.

Zwraca

Typ Opis
Run

Przesłany przebieg.

get_all_logs

Pobierz wszystkie dzienniki przebiegu do katalogu.

get_all_logs(destination=None)

Parametry

Nazwa Opis
destination
str

Ścieżka docelowa do przechowywania dzienników. Jeśli nie zostanie określona, w katalogu projektu zostanie utworzony katalog o nazwie o nazwie identyfikator uruchomienia.

Domyślna wartość: None

Zwraca

Typ Opis

Lista nazw pobranych dzienników.

get_children

Pobierz wszystkie elementy podrzędne dla bieżącego przebiegu wybranego przez określone filtry.

get_children(recursive=False, tags=None, properties=None, type=None, status=None, _rehydrate_runs=True)

Parametry

Nazwa Opis
recursive

Wskazuje, czy powtarzać się za pośrednictwem wszystkich elementów potomnych.

Domyślna wartość: False
tags
str lub dict

Jeśli zostanie określony, zwraca przebiegi pasujące do określonego "tagu" lub {"tag": "value"}.

Domyślna wartość: None
properties
str lub dict

Jeśli zostanie określony, zwraca przebiegi zgodne z określoną właściwością lub {"property": "value"}.

Domyślna wartość: None
type
str

Jeśli zostanie określony, zwraca przebiegi pasujące do tego typu.

Domyślna wartość: None
status
str

Jeśli określono, zwraca przebiegi ze stanem określonym "status".

Domyślna wartość: None
_rehydrate_runs

Wskazuje, czy należy utworzyć wystąpienie uruchomienia oryginalnego typu, czy podstawowego przebiegu.

Domyślna wartość: True

Zwraca

Typ Opis

Lista Run obiektów.

get_context

Zwraca bieżący kontekst usługi.

Użyj tej metody, aby pobrać bieżący kontekst usługi na potrzeby rejestrowania metryk i przekazywania plików. Jeśli allow_offline ma wartość True (wartość domyślna), akcje względem obiektu Run zostaną wydrukowane zgodnie ze standardem.

get_context(allow_offline=True, used_for_context_manager=False, **kwargs)

Parametry

Nazwa Opis
cls
Wymagane

Wskazuje metodę klasy.

allow_offline

Zezwól kontekstowi usługi na powrót do trybu offline, aby skrypt trenowania mógł być testowany lokalnie bez przesyłania zadania za pomocą zestawu SDK. Domyślnie prawda.

Domyślna wartość: True
kwargs
Wymagane

Słownik dodatkowych parametrów.

used_for_context_manager
Domyślna wartość: False

Zwraca

Typ Opis
Run

Przesłany przebieg.

Uwagi

Ta funkcja jest często używana do pobierania uwierzytelnionego obiektu Uruchom wewnątrz skryptu, który ma zostać przesłany do wykonania za pośrednictwem pliku experiment.submit(). Ten obiekt uruchamiania jest zarówno kontekstem uwierzytelnianym do komunikowania się z usługami Azure Machine Learning, jak i kontenerem koncepcyjnym, w którym znajdują się metryki, pliki (artefakty) i modele.


   run = Run.get_context() # allow_offline=True by default, so can be run locally as well
   ...
   run.log("Accuracy", 0.98)
   run.log_row("Performance", epoch=e, error=err)

get_detailed_status

Pobierz najnowszy stan przebiegu. Jeśli stan przebiegu to "Queued", zostanie wyświetlony szczegóły.

get_detailed_status()

Zwraca

Typ Opis

Najnowszy stan i szczegóły

Uwagi

  • status: bieżący stan przebiegu. Ta sama wartość jak zwrócona z get_status().

  • szczegóły: szczegółowe informacje o bieżącym stanie.


   run = experiment.submit(config)
   details = run.get_detailed_status()
   # details = {
   #     'status': 'Queued',
   #     'details': 'Run requested 1 node(s). Run is in pending status.',
   # }

get_details

Pobierz definicję, informacje o stanie, bieżące pliki dziennika i inne szczegóły przebiegu.

get_details()

Zwraca

Typ Opis

Zwracanie szczegółów przebiegu

Uwagi

Zwrócony słownik zawiera następujące pary klucz-wartość:

  • runId: identyfikator tego przebiegu.

  • Docelowego

  • status: bieżący stan przebiegu. Ta sama wartość jak zwrócona z get_status().

  • startTimeUtc: czas UTC uruchomienia w iso8601.

  • endTimeUtc: godzina UTC zakończenia tego przebiegu (Ukończono lub Niepowodzenie) w iso8601.

    Ten klucz nie istnieje, jeśli przebieg jest nadal w toku.

  • properties: Niezmienne pary klucz-wartość skojarzone z przebiegiem. Właściwości domyślne obejmują identyfikator migawki przebiegu i informacje o repozytorium git, z którego utworzono przebieg (jeśli istnieje). Dodatkowe właściwości można dodać do przebiegu przy użyciu polecenia add_properties.

  • inputDatasets: wejściowe zestawy danych skojarzone z przebiegiem.

  • outputDatasets: wyjściowe zestawy danych skojarzone z przebiegiem.

  • Logfiles

  • submittedBy


   run = experiment.start_logging()

   details = run.get_details()
   # details = {
   #     'runId': '5c24aa28-6e4a-4572-96a0-fb522d26fe2d',
   #     'target': 'sdk',
   #     'status': 'Running',
   #     'startTimeUtc': '2019-01-01T13:08:01.713777Z',
   #     'endTimeUtc': '2019-01-01T17:15:65.986253Z',
   #     'properties': {
   #         'azureml.git.repository_uri': 'https://example.com/my/git/repo',
   #         'azureml.git.branch': 'master',
   #         'azureml.git.commit': '7dc972657c2168927a02c3bc2b161e0f370365d7',
   #         'azureml.git.dirty': 'True',
   #         'mlflow.source.git.repoURL': 'https://example.com/my/git/repo',
   #         'mlflow.source.git.branch': 'master',
   #         'mlflow.source.git.commit': '7dc972657c2168927a02c3bc2b161e0f370365d7',
   #         'ContentSnapshotId': 'b4689489-ce2f-4db5-b6d7-6ad11e77079c'
   #     },
   #     'inputDatasets': [{
   #         'dataset': {'id': 'cdebf245-701d-4a68-8055-41f9cf44f298'},
   #         'consumptionDetails': {
   #             'type': 'RunInput',
   #             'inputName': 'training-data',
   #             'mechanism': 'Mount',
   #             'pathOnCompute': '/mnt/datasets/train'
   #         }
   #     }],
   #     'outputDatasets': [{
   #         'dataset': {'id': 'd04e8a19-1caa-4b1f-b318-4cbff9af9615'},
   #         'outputType': 'RunOutput',
   #         'outputDetails': {
   #             'outputName': 'training-result'
   #         }
   #     }],
   #     'runDefinition': {},
   #     'logFiles': {},
   #     'submittedBy': 'Alan Turing'
   # }

get_details_with_logs

Zwracany stan uruchomienia, w tym zawartość pliku dziennika.

get_details_with_logs()

Zwraca

Typ Opis

Zwraca stan przebiegu z zawartością pliku dziennika.

get_environment

Pobierz definicję środowiska, która została użyta przez to uruchomienie.

get_environment()

Zwraca

Typ Opis

Zwróć obiekt środowiska.

get_file_names

Wyświetl listę plików przechowywanych w skojarzeniu z przebiegiem.

get_file_names()

Zwraca

Typ Opis

Lista ścieżek dla istniejących artefaktów

get_metrics

Pobierz zarejestrowane metryki do uruchomienia.

Jeśli recursive ma wartość True (fałsz domyślnie), pobierz metryki dla przebiegów w poddrzewie danego przebiegu.

get_metrics(name=None, recursive=False, run_type=None, populate=False)

Parametry

Nazwa Opis
name
str

Nazwa metryki.

Domyślna wartość: None
recursive

Wskazuje, czy powtarzać się za pośrednictwem wszystkich elementów potomnych.

Domyślna wartość: False
run_type
str
Domyślna wartość: None
populate

Wskazuje, czy pobrać zawartość danych zewnętrznych połączonych z metrykami.

Domyślna wartość: False

Zwraca

Typ Opis

Słownik zawierający metryki użytkowników.

Uwagi


   run = experiment.start_logging() # run id: 123
   run.log("A", 1)
   with run.child_run() as child: # run id: 456
       child.log("A", 2)

   metrics = run.get_metrics()
   # metrics = { 'A': 1 }

   metrics = run.get_metrics(recursive=True)
   # metrics = { '123': { 'A': 1 }, '456': { 'A': 2 } } note key is runId

get_properties

Pobierz najnowsze właściwości przebiegu z usługi.

get_properties()

Zwraca

Typ Opis

Właściwości przebiegu.

Uwagi

Właściwości są niezmiennymi informacjami generowanymi przez system, takimi jak czas trwania, data wykonania, użytkownik i właściwości niestandardowe dodane za pomocą add_properties metody . Aby uzyskać więcej informacji, zobacz Tag i znajdź uruchomienia.

Podczas przesyłania zadania do usługi Azure Machine Learning, jeśli pliki źródłowe są przechowywane w lokalnym repozytorium Git, informacje o repozytorium są przechowywane jako właściwości. Te właściwości git są dodawane podczas tworzenia przebiegu lub wywoływania pliku Experiment.submit. Aby uzyskać więcej informacji o właściwościach usługi Git, zobacz Integracja z usługą Git dla usługi Azure Machine Learning.

get_secret

Pobierz wartość wpisu tajnego z kontekstu przebiegu.

Pobierz wartość wpisu tajnego dla podanej nazwy. Nazwa wpisu tajnego odwołuje się do wartości przechowywanej w usłudze Azure Key Vault skojarzonej z obszarem roboczym. Przykład pracy z wpisami tajnymi można znaleźć w temacie Use secrets in training run (Używanie wpisów tajnych w przebiegach trenowania).

get_secret(name)

Parametry

Nazwa Opis
name
Wymagane
str

Nazwa wpisu tajnego, dla którego ma być zwracany wpis tajny.

Zwraca

Typ Opis
str

Wartość wpisu tajnego.

get_secrets

Pobierz wartości wpisów tajnych dla danej listy nazw wpisów tajnych.

Pobierz słownik znalezionych i nie znaleziono wpisów tajnych dla podanej listy nazw. Każda nazwa wpisu tajnego odwołuje się do wartości przechowywanej w usłudze Azure Key Vault skojarzonej z obszarem roboczym. Przykład pracy z wpisami tajnymi można znaleźć w temacie Use secrets in training run (Używanie wpisów tajnych w przebiegach trenowania).

get_secrets(secrets)

Parametry

Nazwa Opis
secrets
Wymagane

Lista nazw wpisów tajnych, dla których mają być zwracane wartości wpisów tajnych.

Zwraca

Typ Opis

Zwraca słownik znalezionych i nie znaleziono wpisów tajnych.

get_snapshot_id

Pobierz najnowszy identyfikator migawki.

get_snapshot_id()

Zwraca

Typ Opis
str

Najnowszy identyfikator migawki.

get_status

Pobierz najnowszy stan przebiegu.

Zwracane wspólne wartości to "Running", "Completed" i "Failed".

get_status()

Zwraca

Typ Opis
str

Najnowszy stan.

Uwagi

  • NotStarted — jest to tymczasowy stan obiektów Uruchom po stronie klienta przed przesłaniem chmury.

  • Uruchamianie — uruchamianie zaczęło być przetwarzane w chmurze. Obiekt wywołujący ma w tym momencie identyfikator uruchomienia.

  • Aprowizowanie — zwracane po utworzeniu zasobów obliczeniowych na żądanie dla danego przesłania zadania.

  • Przygotowywanie — środowisko uruchamiania jest przygotowywane:

    • Kompilacja obrazu platformy docker

    • Konfiguracja środowiska conda

  • Queued — zadanie jest w kolejce w obiekcie docelowym obliczeniowym. Na przykład w usłudze BatchAI zadanie jest w stanie w kolejce

    czekając na gotowość wszystkich żądanych węzłów.

  • Uruchomiono — zadanie zostało uruchomione w docelowym obiekcie obliczeniowym.

  • Finalizowanie — kod użytkownika został ukończony, a przebieg znajduje się na etapach przetwarzania końcowego.

  • CancelRequested — zażądano anulowania zadania.

  • Ukończono — przebieg został ukończony pomyślnie. Obejmuje to zarówno kod użytkownika, jak i uruchamianie

    etapy przetwarzania końcowego.

  • Niepowodzenie — przebieg zakończył się niepowodzeniem. Zazwyczaj właściwość Error w przebiegu zawiera szczegółowe informacje o przyczynie.

  • Anulowano — następuje żądanie anulowania i wskazuje, że przebieg został pomyślnie anulowany.

  • Brak odpowiedzi — w przypadku przebiegów z włączonymi pulsami nie wysłano ostatnio żadnego pulsu.


   run = experiment.submit(config)
   while run.get_status() not in ['Completed', 'Failed']: # For example purposes only, not exhaustive
       print('Run {} not in terminal state'.format(run.id))
       time.sleep(10)

get_submitted_run

PRZESTARZAŁE. Użyj polecenia get_context.

Pobierz przesłany przebieg dla tego eksperymentu.

get_submitted_run(**kwargs)

Zwraca

Typ Opis
Run

Przesłany przebieg.

get_tags

Pobierz najnowszy zestaw tagów modyfikowalnych w przebiegu z usługi.

get_tags()

Zwraca

Typ Opis

Tagi przechowywane w obiekcie run.

list

Pobierz listę przebiegów w eksperymencie określonym przez opcjonalne filtry.

static list(experiment, type=None, tags=None, properties=None, status=None, include_children=False, _rehydrate_runs=True)

Parametry

Nazwa Opis
experiment
Wymagane

Zawierający eksperyment.

type
str

Jeśli określono, zwraca przebiegi pasujące do określonego typu.

Domyślna wartość: None
tags
str lub dict

Jeśli zostanie określony, zwraca przebiegi pasujące do określonego "tagu" lub {"tag": "value"}.

Domyślna wartość: None
properties
str lub dict

Jeśli zostanie określony, zwraca przebiegi zgodne z określoną właściwością lub {"property": "value"}.

Domyślna wartość: None
status
str

Jeśli określono, zwraca przebiegi ze stanem określonym "status".

Domyślna wartość: None
include_children

Jeśli ustawiono wartość true, pobierz wszystkie uruchomienia, nie tylko te najwyższego poziomu.

Domyślna wartość: False
_rehydrate_runs

Jeśli ustawiono wartość True (domyślnie), użyje zarejestrowanego dostawcy, aby ponownie zainicjować obiekt dla tego typu zamiast podstawowego uruchomienia.

Domyślna wartość: True

Zwraca

Typ Opis

Lista przebiegów.

Uwagi

Poniższy przykład kodu przedstawia niektóre zastosowania list metody .


   favorite_completed_runs = Run.list(experiment, status='Completed', tags='favorite')

   all_distinct_runs = Run.list(experiment)
   and_their_children = Run.list(experiment, include_children=True)

   only_script_runs = Run.list(experiment, type=ScriptRun.RUN_TYPE)

list_by_compute

Pobierz listę przebiegów w obliczeniach określonych przez opcjonalne filtry.

static list_by_compute(compute, type=None, tags=None, properties=None, status=None)

Parametry

Nazwa Opis
compute
Wymagane

Zawierające zasoby obliczeniowe.

type
str

Jeśli określono, zwraca przebiegi pasujące do określonego typu.

Domyślna wartość: None
tags
str lub dict

Jeśli zostanie określony, zwraca przebiegi pasujące do określonego "tagu" lub {"tag": "value"}.

Domyślna wartość: None
properties
str lub dict

Jeśli zostanie określony, zwraca przebiegi zgodne z określoną właściwością lub {"property": "value"}.

Domyślna wartość: None
status
str

Jeśli określono, zwraca przebiegi ze stanem określonym "status". Dozwolone wartości to "Running" (Uruchomione) i "Queued".

Domyślna wartość: None

Zwraca

Typ Opis
<xref:builtin.generator>

generator ~_restclient.models.RunDto

log

Zarejestruj wartość metryki do przebiegu przy użyciu podanej nazwy.

log(name, value, description='', step=None)

Parametry

Nazwa Opis
name
Wymagane
str

Nazwa metryki.

value
Wymagane

Wartość, która ma zostać wysłana do usługi.

description
Wymagane
str

Opcjonalny opis metryki.

step
int

Opcjonalna oś określająca kolejność wartości w obrębie metryki.

Domyślna wartość: None

Uwagi

Rejestrowanie metryki w przebiegu powoduje, że metryka ma być przechowywana w rekordzie uruchamiania w eksperymencie. Tę samą metrykę można rejestrować wiele razy w ramach przebiegu. Wynik jest uznawany za wektor tej metryki. Jeśli krok jest określony dla metryki, musi zostać określony dla wszystkich wartości.

log_accuracy_table

Rejestrowanie tabeli dokładności w magazynie artefaktów.

Metryka tabeli dokładności to wielowymiarowa metryka, która może służyć do tworzenia wielu typów wykresów liniowych, które różnią się stale w przestrzeni przewidywanych prawdopodobieństwa. Przykłady tych wykresów to krzywe ROC, precyzja i krzywe podnoszenia.

Obliczenie tabeli dokładności jest podobne do obliczania krzywej ROC. Krzywa ROC przechowuje prawdziwe dodatnie wskaźniki i fałszywie dodatnie wskaźniki przy wielu różnych progach prawdopodobieństwa. Tabela dokładności przechowuje nieprzetworzona liczba wyników prawdziwie dodatnich, wyników fałszywie dodatnich, prawdziwie ujemnych i fałszywie ujemnych przy wielu progach prawdopodobieństwa.

Istnieją dwie metody służące do wybierania progów: "prawdopodobieństwo" i "percentyl". Różnią się one sposobem próbkowania od przestrzeni przewidywanych prawdopodobieństwa.

Progi prawdopodobieństwa są równomiernie odstępami od 0 do 1. Jeśli NUM_POINTS wynosi 5, progi prawdopodobieństwa to [0.0, 0.25, 0.5, 0.75, 1.0].

Progi percentylu są rozmieszczone zgodnie z rozkładem przewidywanych prawdopodobieństwa. Każdy próg odpowiada percentylowi danych na progu prawdopodobieństwa. Jeśli na przykład NUM_POINTS wynosi 5, pierwszy próg będzie wynosić 0 percentyl, drugi na 25. percentyl, trzeci na 50. i tak dalej.

Tabele prawdopodobieństwa i tabele percentylu są zarówno listami 3D, gdzie pierwszy wymiar reprezentuje etykietę klasy, drugi wymiar reprezentuje próbkę przy jednym progu (skale z NUM_POINTS), a trzeci wymiar zawsze ma 4 wartości: TP, FP, TN, FN i zawsze w tej kolejności.

Wartości pomyłek (TP, FP, TN, FN) są obliczane przy użyciu jednej strategii a rest. Aby uzyskać więcej informacji, zobacz następujący link: https://en.wikipedia.org/wiki/Multiclass_classification

N = liczba przykładów w zestawie danych weryfikacji (na przykład 200) M = # progi = # próbki pobrane z obszaru prawdopodobieństwa (na przykład 5) C = # klasy w pełnym zestawie danych (przykład 3 w przykładzie)

Niektóre niezmienne wartości tabeli dokładności:

  • TP + FP + TN + FN = N dla wszystkich progów dla wszystkich klas
  • Tp + FN jest taka sama we wszystkich progach dla dowolnej klasy
  • TN + FP jest taka sama we wszystkich progach dla dowolnej klasy
  • Tabele prawdopodobieństwa i tabele percentylu mają kształt [C, M, 4]

Uwaga: język M może być dowolną wartością i kontroluje rozdzielczość wykresów Jest to niezależne od zestawu danych, jest definiowane podczas obliczania metryk i zajmuje się miejscem do magazynowania, czasem obliczeń i rozdzielczością.

Etykiety klas powinny być ciągami, wartości pomyłek powinny być liczbami całkowitymi, a progi powinny być zmiennoprzecinkowe.

log_accuracy_table(name, value, description='')

Parametry

Nazwa Opis
name
Wymagane
str

Nazwa tabeli dokładności.

value
Wymagane
str lub dict

Kod JSON zawierający właściwości nazwy, wersji i danych.

description
Wymagane
str

Opcjonalny opis metryki.

Uwagi

Przykład prawidłowej wartości JSON:


   {
       "schema_type": "accuracy_table",
       "schema_version": "1.0.1",
       "data": {
           "probability_tables": [
               [
                   [82, 118, 0, 0],
                   [75, 31, 87, 7],
                   [66, 9, 109, 16],
                   [46, 2, 116, 36],
                   [0, 0, 118, 82]
               ],
               [
                   [60, 140, 0, 0],
                   [56, 20, 120, 4],
                   [47, 4, 136, 13],
                   [28, 0, 140, 32],
                   [0, 0, 140, 60]
               ],
               [
                   [58, 142, 0, 0],
                   [53, 29, 113, 5],
                   [40, 10, 132, 18],
                   [24, 1, 141, 34],
                   [0, 0, 142, 58]
               ]
           ],
           "percentile_tables": [
               [
                   [82, 118, 0, 0],
                   [82, 67, 51, 0],
                   [75, 26, 92, 7],
                   [48, 3, 115, 34],
                   [3, 0, 118, 79]
               ],
               [
                   [60, 140, 0, 0],
                   [60, 89, 51, 0],
                   [60, 41, 99, 0],
                   [46, 5, 135, 14],
                   [3, 0, 140, 57]
               ],
               [
                   [58, 142, 0, 0],
                   [56, 93, 49, 2],
                   [54, 47, 95, 4],
                   [41, 10, 132, 17],
                   [3, 0, 142, 55]
               ]
           ],
           "probability_thresholds": [0.0, 0.25, 0.5, 0.75, 1.0],
           "percentile_thresholds": [0.0, 0.01, 0.24, 0.98, 1.0],
           "class_labels": ["0", "1", "2"]
       }
   }

log_confusion_matrix

Rejestrowanie macierzy pomyłek w magazynie artefaktów.

Rejestruje otokę wokół macierzy pomyłek sklearn. Dane metryk zawierają etykiety klas i listę 2D dla samej macierzy. Aby uzyskać więcej informacji na temat sposobu obliczania metryki, zobacz następujący link: https://scikit-learn.org/stable/modules/generated/sklearn.metrics.confusion_matrix.html

log_confusion_matrix(name, value, description='')

Parametry

Nazwa Opis
name
Wymagane
str

Nazwa macierzy pomyłek.

value
Wymagane
str lub dict

Kod JSON zawierający właściwości nazwy, wersji i danych.

description
Wymagane
str

Opcjonalny opis metryki.

Uwagi

Przykład prawidłowej wartości JSON:


   {
       "schema_type": "confusion_matrix",
       "schema_version": "1.0.0",
       "data": {
           "class_labels": ["0", "1", "2", "3"],
           "matrix": [
               [3, 0, 1, 0],
               [0, 1, 0, 1],
               [0, 0, 1, 0],
               [0, 0, 0, 1]
           ]
       }
   }

log_image

Rejestrowanie metryki obrazu w rekordzie uruchamiania.

log_image(name, path=None, plot=None, description='')

Parametry

Nazwa Opis
name
Wymagane
str

Nazwa metryki.

path
Wymagane
str

Ścieżka lub strumień obrazu.

plot
Wymagane
<xref:matplotlib.pyplot>

Wykres do rejestrowania jako obrazu.

description
Wymagane
str

Opcjonalny opis metryki.

Uwagi

Ta metoda służy do rejestrowania pliku obrazu lub wykresu matplotlib do uruchomienia. Te obrazy będą widoczne i porównywalne w rekordzie przebiegu.

log_list

Zarejestruj listę wartości metryk do przebiegu o podanej nazwie.

log_list(name, value, description='')

Parametry

Nazwa Opis
name
Wymagane
str

Nazwa metryki.

value
Wymagane

Wartości metryki.

description
Wymagane
str

Opcjonalny opis metryki.

log_predictions

Rejestrowanie przewidywań w magazynie artefaktów.

Rejestruje wynik metryki, który może służyć do porównywania rozkładów rzeczywistych wartości docelowych do rozkładu przewidywanych wartości dla zadania regresji.

Przewidywania są binned, a odchylenia standardowe są obliczane dla słupków błędów na wykresie liniowym.

log_predictions(name, value, description='')

Parametry

Nazwa Opis
name
Wymagane
str

Nazwa przewidywań.

value
Wymagane
str lub dict

Kod JSON zawierający właściwości nazwy, wersji i danych.

description
Wymagane
str

Opcjonalny opis metryki.

Uwagi

Przykład prawidłowej wartości JSON:


   {
       "schema_type": "predictions",
       "schema_version": "1.0.0",
       "data": {
           "bin_averages": [0.25, 0.75],
           "bin_errors": [0.013, 0.042],
           "bin_counts": [56, 34],
           "bin_edges": [0.0, 0.5, 1.0]
       }
   }

log_residuals

Rejestruje reszty w magazynie artefaktów.

Rejestruje dane potrzebne do wyświetlenia histogramu reszt zadania regresji. Reszty są przewidywane — rzeczywiste.

Powinna istnieć jeszcze jedna krawędź niż liczba liczb. Zapoznaj się z dokumentacją histogramu numpy, aby zapoznać się z przykładami użycia liczb i krawędzi do reprezentowania histogramu. https://docs.scipy.org/doc/numpy/reference/generated/numpy.histogram.html

log_residuals(name, value, description='')

Parametry

Nazwa Opis
name
Wymagane
str

Nazwa reszt.

value
Wymagane
str lub dict

Kod JSON zawierający właściwości nazwy, wersji i danych.

description
Wymagane
str

Opcjonalny opis metryki.

Uwagi

Przykład prawidłowej wartości JSON:


   {
       "schema_type": "residuals",
       "schema_version": "1.0.0",
       "data": {
           "bin_edges": [50, 100, 200, 300, 350],
           "bin_counts": [0.88, 20, 30, 50.99]
       }
   }

log_row

Rejestrowanie metryki wiersza do przebiegu przy użyciu podanej nazwy.

log_row(name, description=None, **kwargs)

Parametry

Nazwa Opis
name
Wymagane
str

Nazwa metryki.

description
str

Opcjonalny opis metryki.

Domyślna wartość: None
kwargs
Wymagane

Słownik dodatkowych parametrów. W tym przypadku kolumny metryki.

Uwagi

Za pomocą log_row polecenia tworzy metrykę tabeli z kolumnami zgodnie z opisem w artykule kwargs. Każdy nazwany parametr generuje kolumnę z określoną wartością. log_row można wywołać raz, aby zarejestrować dowolną krotkę lub wiele razy w pętli w celu wygenerowania pełnej tabeli.


   citrus = ['orange', 'lemon', 'lime']
   sizes = [ 10, 7, 3]
   for index in range(len(citrus)):
       run.log_row("citrus", fruit = citrus[index], size=sizes[index])

log_table

Rejestrowanie metryki tabeli w przebiegu przy użyciu podanej nazwy.

log_table(name, value, description='')

Parametry

Nazwa Opis
name
Wymagane
str

Nazwa metryki.

value
Wymagane

Wartość tabeli metryki, słownika, w którym klucze są kolumnami, które mają być publikowane w usłudze.

description
Wymagane
str

Opcjonalny opis metryki.

register_model

Rejestrowanie modelu na potrzeby operacjonalizacji.

register_model(model_name, model_path=None, tags=None, properties=None, model_framework=None, model_framework_version=None, description=None, datasets=None, sample_input_dataset=None, sample_output_dataset=None, resource_configuration=None, **kwargs)

Parametry

Nazwa Opis
model_name
Wymagane
str

Nazwa modelu.

model_path
str

Względna ścieżka chmury do modelu, na przykład "outputs/modelname". Jeśli nie określono wartości (Brak), model_name jest używana jako ścieżka.

Domyślna wartość: None
tags

Słownik tagów wartości klucza do przypisania do modelu.

Domyślna wartość: None
properties

Słownik właściwości wartości klucza do przypisania do modelu. Nie można zmienić tych właściwości po utworzeniu modelu, jednak można dodać nowe pary wartości klucza.

Domyślna wartość: None
model_framework
str

Struktura modelu do zarejestrowania. Obecnie obsługiwane platformy: TensorFlow, ScikitLearn, Onnx, Custom, Multi

Domyślna wartość: None
model_framework_version
str

Wersja platformy zarejestrowanego modelu.

Domyślna wartość: None
description
str

Opcjonalny opis modelu.

Domyślna wartość: None
datasets

Lista krotki, w których pierwszy element opisuje relację modelu zestawu danych, a drugi element to zestaw danych.

Domyślna wartość: None
sample_input_dataset

Opcjonalny. Przykładowy zestaw danych wejściowych dla zarejestrowanego modelu

Domyślna wartość: None
sample_output_dataset

Opcjonalny. Przykładowy wyjściowy zestaw danych dla zarejestrowanego modelu

Domyślna wartość: None
resource_configuration

Opcjonalny. Konfiguracja zasobu do uruchamiania zarejestrowanego modelu

Domyślna wartość: None
kwargs
Wymagane

Parametry opcjonalne.

Zwraca

Typ Opis

Zarejestrowany model.

Uwagi


   model = best_run.register_model(model_name = 'best_model', model_path = 'outputs/model.pkl')

remove_tags

Usuń listę tagów modyfikowalnych w tym przebiegu.

remove_tags(tags)

Parametry

Nazwa Opis
tags
Wymagane

Lista tagów do usunięcia.

Zwraca

Typ Opis

Tagi przechowywane w obiekcie uruchamiania

restore_snapshot

Przywróć migawkę jako plik ZIP. Zwraca ścieżkę do pliku ZIP.

restore_snapshot(snapshot_id=None, path=None)

Parametry

Nazwa Opis
snapshot_id
str

Identyfikator migawki do przywrócenia. Najnowsza wersja jest używana, jeśli nie zostanie określona.

Domyślna wartość: None
path
str

Ścieżka, w której jest zapisywany pobrany plik ZIP.

Domyślna wartość: None

Zwraca

Typ Opis
str

Ścieżka.

set_tags

Dodaj lub zmodyfikuj zestaw tagów w przebiegu. Tagi, które nie zostały przekazane w słowniku, pozostają nietknięte.

Można również dodać proste tagi ciągów. Gdy te tagi są wyświetlane w słowniku tagów jako klucze, mają wartość None. Aby uzyskać więcej informacji, zobacz Tag i znajdź uruchomienia.

set_tags(tags)

Parametry

Nazwa Opis
tags
Wymagane
dict[str] lub str

Tagi przechowywane w obiekcie run.

start

Oznacz przebieg jako rozpoczęty.

Jest to zwykle używane w zaawansowanych scenariuszach, gdy przebieg został utworzony przez innego aktora.

start()

submit_child

Prześlij eksperyment i zwróć aktywne uruchomienie podrzędne.

submit_child(config, tags=None, **kwargs)

Parametry

Nazwa Opis
config
Wymagane

Konfiguracja, która ma zostać przesłana.

tags

Tagi do dodania do przesłanego przebiegu, np. {"tag": "value"}.

Domyślna wartość: None
kwargs
Wymagane

Dodatkowe parametry używane w funkcji przesyłania dla konfiguracji.

Zwraca

Typ Opis
Run

Obiekt run.

Uwagi

Submit to asynchroniczne wywołanie platformy Azure Machine Learning w celu wykonania wersji próbnej na sprzęcie lokalnym lub zdalnym. W zależności od konfiguracji przesyłanie automatycznie przygotuje środowiska wykonawcze, wykonaj kod i przechwyci kod źródłowy oraz wyniki w historii uruchamiania eksperymentu.

Aby przesłać eksperyment, należy najpierw utworzyć obiekt konfiguracji opisujący sposób uruchamiania eksperymentu. Konfiguracja zależy od wymaganego typu wersji próbnej.

Przykładowy sposób przesyłania eksperymentu podrzędnego z komputera lokalnego przy użyciu ScriptRunConfig jest następujący:


   from azureml.core import ScriptRunConfig

   # run a trial from the train.py code in your current directory
   config = ScriptRunConfig(source_directory='.', script='train.py',
       run_config=RunConfiguration())
   run = parent_run.submit_child(config)

   # get the url to view the progress of the experiment and then wait
   # until the trial is complete
   print(run.get_portal_url())
   run.wait_for_completion()

Aby uzyskać szczegółowe informacje na temat konfigurowania przebiegu, zobacz submit.

tag

Oznacz przebieg kluczem ciągu i opcjonalną wartością ciągu.

tag(key, value=None)

Parametry

Nazwa Opis
key
Wymagane
str

Klucz tagu

value
str

Opcjonalna wartość tagu

Domyślna wartość: None

Uwagi

Tagi i właściwości przebiegu to słowniki ciągu —> ciąg. Różnica między nimi polega na niezmienności: tagi można ustawiać, aktualizować i usuwać, podczas gdy właściwości można dodawać tylko. Dzięki temu właściwości są bardziej odpowiednie dla wyzwalaczy zachowania związanych z systemem/przepływem pracy, podczas gdy tagi są ogólnie dostępne dla użytkowników eksperymentu i mają znaczenie.


   run = experiment.start_logging()
   run.tag('DeploymentCandidate')
   run.tag('modifiedBy', 'Master CI')
   run.tag('modifiedBy', 'release pipeline') # Careful, tags are mutable

   run.add_properties({'BuildId': os.environ.get('VSTS_BUILD_ID')}) # Properties are not

   tags = run.get_tags()
   # tags = { 'DeploymentCandidate': None, 'modifiedBy': 'release pipeline' }

take_snapshot

Zapisz migawkę pliku lub folderu wejściowego.

take_snapshot(file_or_folder_path)

Parametry

Nazwa Opis
file_or_folder_path
Wymagane
str

Plik lub folder zawierający kod źródłowy przebiegu.

Zwraca

Typ Opis
str

Zwraca identyfikator migawki.

Uwagi

Migawki mają być kodem źródłowym używanym do wykonania przebiegu eksperymentu. Są one przechowywane przy użyciu przebiegu, aby można było replikować wersję próbną przebiegu w przyszłości.

Uwaga

Migawki są wykonywane automatycznie po submit wywołaniu. Zazwyczaj ta metoda take_snapshot jest wymagana tylko w przypadku przebiegów interakcyjnych (notesów).

upload_file

Przekaż plik do rekordu uruchomienia.

upload_file(name, path_or_stream, datastore_name=None)

Parametry

Nazwa Opis
name
Wymagane
str

Nazwa pliku do przekazania.

path_or_stream
Wymagane
str

Względna ścieżka lokalna lub strumień do pliku do przekazania.

datastore_name
Wymagane
str

Opcjonalna nazwa magazynu danych

Zwraca

Uwagi


   run = experiment.start_logging()
   run.upload_file(name='important_file', path_or_stream="path/on/disk/file.txt")

Uwaga

Uruchamia automatycznie przechwytywanie pliku w określonym katalogu wyjściowym, który domyślnie ma wartość "./outputs" dla większości typów uruchamiania. Użyj upload_file tylko wtedy, gdy dodatkowe pliki muszą zostać przekazane lub nie określono katalogu wyjściowego.

upload_files

Przekaż pliki do rekordu uruchomienia.

upload_files(names, paths, return_artifacts=False, timeout_seconds=None, datastore_name=None)

Parametry

Nazwa Opis
names
Wymagane

Nazwy plików do przekazania. W przypadku ustawienia należy również ustawić ścieżki.

paths
Wymagane

Względne ścieżki lokalne do plików do przekazania. W przypadku ustawienia nazwy są wymagane.

return_artifacts
Wymagane

Wskazuje, że obiekt artefaktu powinien zostać zwrócony dla każdego przekazanego pliku.

timeout_seconds
Wymagane
int

Limit czasu przekazywania plików.

datastore_name
Wymagane
str

Opcjonalna nazwa magazynu danych

Uwagi

upload_files ma taki sam wpływ jak upload_file w przypadku oddzielnych plików, jednak w przypadku korzystania z usługi istnieją korzyści związane z upload_fileswydajnością i wykorzystaniem zasobów.


   import os

   run = experiment.start_logging()
   file_name_1 = 'important_file_1'
   file_name_2 = 'important_file_2'
   run.upload_files(names=[file_name_1, file_name_2],
                       paths=['path/on/disk/file_1.txt', 'other/path/on/disk/file_2.txt'])

   run.download_file(file_name_1, 'file_1.txt')

   os.mkdir("path")  # The path must exist
   run.download_file(file_name_2, 'path/file_2.txt')

Uwaga

Uruchamia automatyczne przechwytywanie plików w określonym katalogu wyjściowym, który domyślnie ma wartość "./outputs" dla większości typów uruchamiania. Użyj upload_files tylko wtedy, gdy dodatkowe pliki muszą zostać przekazane lub nie określono katalogu wyjściowego.

upload_folder

Przekaż określony folder do podanej nazwy prefiksu.

upload_folder(name, path, datastore_name=None)

Parametry

Nazwa Opis
name
Wymagane
str

Nazwa folderu plików do przekazania.

folder
Wymagane
str

Względna ścieżka lokalna do folderu do przekazania.

datastore_name
Wymagane
str

Opcjonalna nazwa magazynu danych

Uwagi


   run = experiment.start_logging()
   run.upload_folder(name='important_files', path='path/on/disk')

   run.download_file('important_files/existing_file.txt', 'local_file.txt')

Uwaga

Uruchamia automatyczne przechwytywanie plików w określonym katalogu wyjściowym, który domyślnie ma wartość "./outputs" dla większości typów uruchamiania. Użyj upload_folder tylko wtedy, gdy dodatkowe pliki muszą zostać przekazane lub nie określono katalogu wyjściowego.

wait_for_completion

Poczekaj na ukończenie tego przebiegu. Zwraca obiekt statusu po oczekiwaniu.

wait_for_completion(show_output=False, wait_post_processing=False, raise_on_error=True)

Parametry

Nazwa Opis
show_output

Wskazuje, czy dane wyjściowe uruchomienia mają być wyświetlane w pliku sys.stdout.

Domyślna wartość: False
wait_post_processing

Wskazuje, czy poczekać na zakończenie przetwarzania po zakończeniu przebiegu.

Domyślna wartość: False
raise_on_error

Wskazuje, czy błąd jest zgłaszany, gdy przebieg jest w stanie niepowodzenia.

Domyślna wartość: True

Zwraca

Typ Opis

Obiekt stanu.

Atrybuty

description

Zwróć opis przebiegu.

Opcjonalny opis przebiegu jest ciągiem określonym przez użytkownika przydatnym do opisywania przebiegu.

Zwraca

Typ Opis
str

Opis przebiegu.

display_name

Zwróć nazwę wyświetlaną przebiegu.

Opcjonalna nazwa wyświetlana przebiegu jest ciągiem określonym przez użytkownika przydatnym do późniejszej identyfikacji przebiegu.

Zwraca

Typ Opis
str

Nazwa wyświetlana przebiegu.

experiment

Pobierz eksperyment zawierający przebieg.

Zwraca

Typ Opis

Pobiera eksperyment odpowiadający przebiegowi.

id

Pobierz identyfikator uruchomienia.

Identyfikator przebiegu jest identyfikatorem unikatowym w całym zawierającym eksperymencie.

Zwraca

Typ Opis
str

Identyfikator przebiegu.

name

PRZESTARZAŁE. Użyj display_name.

Opcjonalna nazwa przebiegu jest ciągiem określonym przez użytkownika przydatnym do późniejszej identyfikacji przebiegu.

Zwraca

Typ Opis
str

Identyfikator przebiegu.

number

Pobierz numer uruchomienia.

Monotonicznie rosnąca liczba reprezentująca kolejność przebiegów w eksperymencie.

Zwraca

Typ Opis
int

Numer przebiegu.

parent

Pobierz uruchomienie nadrzędne dla tego przebiegu z usługi.

Uruchomienia mogą mieć opcjonalny element nadrzędny, co powoduje potencjalną hierarchię drzewa przebiegów. Aby zarejestrować metryki w uruchomieniu nadrzędnym, użyj log metody obiektu nadrzędnego, na przykład run.parent.log().

Zwraca

Typ Opis
Run

Uruchomienie nadrzędne lub Brak, jeśli go nie ustawiono.

properties

Zwróć niezmienne właściwości tego przebiegu.

Zwraca

Typ Opis
dict[str],
str

Lokalnie buforowane właściwości przebiegu.

Uwagi

Właściwości obejmują niezmienne informacje generowane przez system, takie jak czas trwania, data wykonania, użytkownik itp.

status

Zwróć stan obiektu przebiegu.

tags

Zwróć zestaw tagów modyfikowalnych w tym przebiegu.

Zwraca

Typ Opis

Tagi przechowywane w obiekcie run.

type

Pobierz typ przebiegu.

Wskazuje sposób tworzenia lub konfigurowania przebiegu.

Zwraca

Typ Opis
str

Typ przebiegu.