Run Klasa

Definiuje klasę bazową dla wszystkich przebiegów eksperymentów usługi Azure Machine Learning.

Przebieg reprezentuje pojedynczą wersję próbną eksperymentu. Uruchomienia służą do monitorowania asynchronicznego wykonywania wersji próbnej, metryk dzienników i przechowywania danych wyjściowych wersji próbnej oraz analizowania wyników i uzyskiwania dostępu do artefaktów generowanych przez wersję próbną.

Obiekty uruchamiania są tworzone podczas przesyłania skryptu w celu wytrenowania modelu w wielu różnych scenariuszach w usłudze Azure Machine Learning, w tym przebiegów usługi HyperDrive, przebiegów potoków i przebiegów rozwiązania AutoML. Obiekt Run jest również tworzony podczas submit pracy z klasą lub start_logging z tą klasą Experiment .

Aby rozpocząć pracę z eksperymentami i przebiegami, zobacz

Dziedziczenie
azureml._run_impl.run_base._RunBase
Run

Konstruktor

Run(experiment, run_id, outputs=None, **kwargs)

Parametry

experiment
Experiment
Wymagane

Zawierający eksperyment.

run_id
str
Wymagane

Identyfikator przebiegu.

outputs
str
wartość domyślna: None

Dane wyjściowe do śledzenia.

_run_dto
<xref:azureml._restclient.models.run_dto.RunDto>
Wymagane

Tylko do użytku wewnętrznego.

kwargs
dict
Wymagane

Słownik dodatkowych parametrów konfiguracji.

Uwagi

Przebieg reprezentuje pojedynczą wersję próbną eksperymentu. Obiekt Run służy do monitorowania asynchronicznego wykonywania wersji próbnej, metryk dzienników i przechowywania danych wyjściowych wersji próbnej oraz analizowania wyników i uzyskiwania dostępu do artefaktów generowanych przez wersję próbną.

Uruchamianie jest używane wewnątrz kodu eksperymentowania w celu rejestrowania metryk i artefaktów w usłudze Historia uruchamiania.

Uruchamianie jest używane poza eksperymentami w celu monitorowania postępu oraz wykonywania zapytań i analizowania wygenerowanych metryk i wyników.

Funkcjonalność polecenia Uruchom obejmuje:

  • Przechowywanie i pobieranie metryk i danych

  • Przekazywanie i pobieranie plików

  • Używanie tagów oraz hierarchii podrzędnej w celu łatwego wyszukiwania poprzednich przebiegów

  • Rejestrowanie przechowywanych plików modelu jako modelu, który można zoperacjonalizować

  • Przechowywanie, modyfikowanie i pobieranie właściwości przebiegu

  • Ładowanie bieżącego przebiegu ze środowiska zdalnego za get_context pomocą metody

  • Efektywne tworzenie migawek pliku lub katalogu w celu odtworzenia

Ta klasa działa z klasą Experiment w następujących scenariuszach:

  • Tworzenie przebiegu przez wykonywanie kodu przy użyciu polecenia submit

  • Tworzenie przebiegu interakcyjnego w notesie przy użyciu polecenia start_logging

  • Rejestrowanie metryk i przekazywanie artefaktów w eksperymencie, na przykład podczas korzystania z log

  • Odczytywanie metryk i pobieranie artefaktów podczas analizowania wyników eksperymentalnych, takich jak podczas korzystania z get_metrics

Aby przesłać przebieg, utwórz obiekt konfiguracji, który opisuje sposób uruchamiania eksperymentu. Oto przykłady różnych obiektów konfiguracji, których można użyć:

  • ScriptRunConfig

  • azureml.train.automl.automlconfig.AutoMLConfig

  • azureml.train.hyperdrive.HyperDriveConfig

  • azureml.pipeline.core.Pipeline

  • azureml.pipeline.core.PublishedPipeline

  • azureml.pipeline.core.PipelineEndpoint

Następujące metryki można dodać do przebiegu podczas trenowania eksperymentu.

  • Wartość skalarna

    • Zarejestruj wartość liczbową lub ciągową w przebiegu przy użyciu podanej nazwy przy użyciu polecenia log. Rejestrowanie metryki w przebiegu powoduje, że metryka jest przechowywana w rekordzie przebiegu w eksperymencie. Tę samą metrykę można rejestrować wiele razy w ramach przebiegu. Wynik jest traktowany jako wektor tej metryki.

    • Przykład: run.log("accuracy", 0.95)

  • Lista

    • Zarejestruj listę wartości do przebiegu o podanej nazwie przy użyciu polecenia log_list.

    • Przykład: run.log_list("accuracies", [0.6, 0.7, 0.87])

  • Wiersz

    • Użycie polecenia log_row tworzy metrykę z wieloma kolumnami zgodnie z opisem w temacie kwargs. Każdy nazwany parametr generuje kolumnę z określoną wartością. log_row Można wywołać raz, aby zarejestrować dowolną krotkę lub wiele razy w pętli w celu wygenerowania pełnej tabeli.

    • Przykład: run.log_row("Y over X", x=1, y=0.4)

  • Tabela

    • Zarejestruj obiekt słownika w uruchomieniu o podanej nazwie przy użyciu polecenia log_table.

    • Przykład: run.log_table("Y over X", {"x":[1, 2, 3], "y":[0.6, 0.7, 0.89]})

  • Obraz

    • Rejestrowanie obrazu w rekordzie uruchamiania. Służy log_image do rejestrowania pliku obrazu lub wykresu matplotlib do uruchomienia. Te obrazy będą widoczne i porównywalne w rekordzie przebiegu.

    • Przykład: run.log_image("ROC", path)

Metody

add_properties

Dodaj niezmienne właściwości do przebiegu.

Tagi i właściwości (zarówno dict[str, str]) różnią się ich niezmiennością. Właściwości są niezmienne, więc tworzą trwały rekord na potrzeby inspekcji. Tagi są modyfikowalne. Aby uzyskać więcej informacji na temat pracy z tagami i właściwościami, zobacz Tagowanie i znajdowanie przebiegów.

add_type_provider

Punkt zaczepienia rozszerzalności dla niestandardowych typów przebiegów przechowywanych w historii uruchamiania.

cancel

Oznacz przebieg jako anulowany.

Jeśli istnieje skojarzone zadanie z ustawionym polem cancel_uri, zakończ to zadanie również.

child_run

Utwórz przebieg podrzędny.

clean

Usuń pliki odpowiadające bieżącemu uruchomieniu w elemencie docelowym określonym w konfiguracji przebiegu.

complete

Poczekaj na przetworzenie kolejki zadań.

Następnie przebieg jest oznaczony jako ukończony. Jest to zwykle używane w scenariuszach notesu interaktywnego.

create_children

Utwórz jedno lub wiele przebiegów podrzędnych.

download_file

Pobierz skojarzony plik z magazynu.

download_files

Pobierz pliki z danego prefiksu magazynu (nazwy folderu) lub całego kontenera, jeśli prefiks jest nieokreślony.

fail

Oznacz przebieg jako nieudany.

Opcjonalnie ustaw właściwość Error przebiegu z komunikatem lub wyjątkiem przekazanym do .error_details

flush

Poczekaj na przetworzenie kolejki zadań.

get

Pobierz przebieg dla tego obszaru roboczego z identyfikatorem przebiegu.

get_all_logs

Pobierz wszystkie dzienniki przebiegu do katalogu.

get_children

Pobierz wszystkie elementy podrzędne dla bieżącego przebiegu wybranego przez określone filtry.

get_context

Zwraca bieżący kontekst usługi.

Użyj tej metody, aby pobrać bieżący kontekst usługi na potrzeby rejestrowania metryk i przekazywania plików. Jeśli allow_offline ma wartość True (wartość domyślna), akcje względem obiektu Run zostaną wydrukowane w celu ustawienia standardowego.

get_detailed_status

Pobierz najnowszy stan przebiegu. Jeśli stan przebiegu to "W kolejce", zostaną wyświetlone szczegóły.

get_details

Pobierz definicję, informacje o stanie, bieżące pliki dziennika i inne szczegóły przebiegu.

get_details_with_logs

Zwracany jest stan przebiegu, w tym zawartość pliku dziennika.

get_environment

Pobierz definicję środowiska, która została użyta przez ten przebieg.

get_file_names

Wyświetl listę plików przechowywanych w skojarzeniu z przebiegiem.

get_metrics

Pobierz metryki zarejestrowane w przebiegu.

Jeśli recursive domyślnie ma wartość True (Fałsz), pobierz metryki dla przebiegów w poddrzewie danego przebiegu.

get_properties

Pobierz najnowsze właściwości przebiegu z usługi.

get_secret

Pobierz wartość wpisu tajnego z kontekstu przebiegu.

Pobierz wartość wpisu tajnego dla podanej nazwy. Nazwa wpisu tajnego odwołuje się do wartości przechowywanej w usłudze Azure 密钥保管库 skojarzonej z obszarem roboczym. Aby zapoznać się z przykładem pracy z wpisami tajnymi, zobacz Używanie wpisów tajnych w przebiegach trenowania.

get_secrets

Pobierz wartości wpisów tajnych dla danej listy nazw wpisów tajnych.

Pobierz słownik znalezionych i nie odnalezionych wpisów tajnych dla podanej listy nazw. Każda nazwa wpisu tajnego odwołuje się do wartości przechowywanej w usłudze Azure 密钥保管库 skojarzonej z obszarem roboczym. Aby zapoznać się z przykładem pracy z wpisami tajnymi, zobacz Używanie wpisów tajnych w przebiegach trenowania.

get_snapshot_id

Pobierz najnowszy identyfikator migawki.

get_status

Pobierz najnowszy stan przebiegu.

Zwracane wspólne wartości to "Running", "Completed" i "Failed".

get_submitted_run

PRZESTARZAŁE. Użyj polecenia get_context.

Pobierz przesłany przebieg dla tego eksperymentu.

get_tags

Pobierz najnowszy zestaw tagów modyfikowalnych w przebiegu z usługi.

list

Pobierz listę przebiegów w eksperymencie określonym przez opcjonalne filtry.

list_by_compute

Pobierz listę przebiegów w obliczeniach określonych przez opcjonalne filtry.

log

Zarejestruj wartość metryki do przebiegu przy użyciu podanej nazwy.

log_accuracy_table

Rejestrowanie tabeli dokładności w magazynie artefaktów.

Metryka tabeli dokładności to wielowymiarowa metryka, która może służyć do tworzenia wielu typów wykresów liniowych, które różnią się stale w przestrzeni przewidywanych prawdopodobieństwa. Przykłady tych wykresów to krzywe ROC, precyzja i krzywe podnoszenia.

Obliczenie tabeli dokładności jest podobne do obliczania krzywej ROC. Krzywa ROC przechowuje prawdziwe dodatnie wskaźniki i fałszywie dodatnie wskaźniki przy wielu różnych progach prawdopodobieństwa. Tabela dokładności przechowuje nieprzetworzona liczba wyników prawdziwie dodatnich, wyników fałszywie dodatnich, prawdziwie ujemnych i fałszywie ujemnych przy wielu progach prawdopodobieństwa.

Istnieją dwie metody służące do wybierania progów: "prawdopodobieństwo" i "percentyl". Różnią się one sposobem próbkowania od przestrzeni przewidywanych prawdopodobieństwa.

Progi prawdopodobieństwa są równomiernie odstępami od 0 do 1. Jeśli NUM_POINTS wynosi 5, progi prawdopodobieństwa to [0.0, 0.25, 0.5, 0.75, 1.0].

Progi percentylu są rozmieszczone zgodnie z rozkładem przewidywanych prawdopodobieństwa. Każdy próg odpowiada percentylowi danych na progu prawdopodobieństwa. Jeśli na przykład NUM_POINTS wynosi 5, pierwszy próg będzie wynosić 0 percentyl, drugi na 25. percentyl, trzeci na 50. i tak dalej.

Tabele prawdopodobieństwa i tabele percentylu są zarówno listami 3D, gdzie pierwszy wymiar reprezentuje etykietę klasy, drugi wymiar reprezentuje próbkę przy jednym progu (skale z NUM_POINTS), a trzeci wymiar zawsze ma 4 wartości: TP, FP, TN, FN i zawsze w tej kolejności.

Wartości pomyłek (TP, FP, TN, FN) są obliczane przy użyciu jednej strategii a rest. Aby uzyskać więcej informacji, zobacz następujący link: https://en.wikipedia.org/wiki/Multiclass_classification

N = liczba przykładów w zestawie danych weryfikacji (na przykład 200) M = # progi = # próbki pobrane z obszaru prawdopodobieństwa (na przykład 5) C = # klasy w pełnym zestawie danych (przykład 3 w przykładzie)

Niektóre niezmienne wartości tabeli dokładności:

  • TP + FP + TN + FN = N dla wszystkich progów dla wszystkich klas
  • Tp + FN jest taka sama we wszystkich progach dla dowolnej klasy
  • TN + FP jest taka sama we wszystkich progach dla dowolnej klasy
  • Tabele prawdopodobieństwa i tabele percentylu mają kształt [C, M, 4]

Uwaga: język M może być dowolną wartością i kontroluje rozdzielczość wykresów Jest to niezależne od zestawu danych, jest definiowane podczas obliczania metryk i zajmuje się miejscem do magazynowania, czasem obliczeń i rozdzielczością.

Etykiety klas powinny być ciągami, wartości pomyłek powinny być liczbami całkowitymi, a progi powinny być zmiennoprzecinkowe.

log_confusion_matrix

Rejestrowanie macierzy pomyłek w magazynie artefaktów.

Rejestruje otokę wokół macierzy pomyłek sklearn. Dane metryk zawierają etykiety klas i listę 2D dla samej macierzy. Aby uzyskać więcej informacji na temat sposobu obliczania metryki, zobacz następujący link: https://scikit-learn.org/stable/modules/generated/sklearn.metrics.confusion_matrix.html

log_image

Rejestrowanie metryki obrazu w rekordzie uruchamiania.

log_list

Zarejestruj listę wartości metryk do przebiegu o podanej nazwie.

log_predictions

Rejestrowanie przewidywań w magazynie artefaktów.

Rejestruje wynik metryki, który może służyć do porównywania rozkładów rzeczywistych wartości docelowych do rozkładu przewidywanych wartości dla zadania regresji.

Przewidywania są binned, a odchylenia standardowe są obliczane dla słupków błędów na wykresie liniowym.

log_residuals

Rejestruje reszty w magazynie artefaktów.

Rejestruje dane potrzebne do wyświetlenia histogramu reszt dla zadania regresji. Reszty są przewidywane — rzeczywiste.

Liczba liczników powinna być większa niż jedna krawędź. Zapoznaj się z dokumentacją histogramu numpy, aby zapoznać się z przykładami użycia liczb i krawędzi do reprezentowania histogramu. https://docs.scipy.org/doc/numpy/reference/generated/numpy.histogram.html

log_row

Zarejestruj metrykę wiersza w przebiegu o podanej nazwie.

log_table

Zarejestruj metrykę tabeli w przebiegu o podanej nazwie.

register_model

Rejestrowanie modelu na potrzeby operacjonalizacji.

remove_tags

Usuń listę tagów modyfikowalnych w tym przebiegu.

restore_snapshot

Przywróć migawkę jako plik ZIP. Zwraca ścieżkę do pliku ZIP.

set_tags

Dodaj lub zmodyfikuj zestaw tagów w przebiegu. Tagi, które nie są przekazywane w słowniku, pozostają niezmienione.

Można również dodać proste tagi ciągów. Gdy te tagi są wyświetlane w słowniku tagów jako klucze, mają wartość None. Aby uzyskać więcej informacji, zobacz Tagowanie i znajdowanie przebiegów.

start

Oznacz przebieg jako rozpoczęty.

Jest to zwykle używane w zaawansowanych scenariuszach, gdy przebieg został utworzony przez innego aktora.

submit_child

Prześlij eksperyment i zwróć aktywny przebieg podrzędny.

tag

Oznaczanie przebiegu kluczem ciągu i opcjonalną wartością ciągu.

take_snapshot

Zapisz migawkę pliku lub folderu wejściowego.

upload_file

Przekaż plik do rekordu uruchamiania.

upload_files

Przekazywanie plików do rekordu przebiegu.

upload_folder

Przekaż określony folder do podanej nazwy prefiksu.

wait_for_completion

Poczekaj na ukończenie tego przebiegu. Zwraca obiekt status po oczekiwaniu.

add_properties

Dodaj niezmienne właściwości do przebiegu.

Tagi i właściwości (zarówno dict[str, str]) różnią się ich niezmiennością. Właściwości są niezmienne, więc tworzą trwały rekord na potrzeby inspekcji. Tagi są modyfikowalne. Aby uzyskać więcej informacji na temat pracy z tagami i właściwościami, zobacz Tagowanie i znajdowanie przebiegów.

add_properties(properties)

Parametry

properties
dict
Wymagane

Ukryte właściwości przechowywane w obiekcie run.

add_type_provider

Punkt zaczepienia rozszerzalności dla niestandardowych typów przebiegów przechowywanych w historii uruchamiania.

static add_type_provider(runtype, run_factory)

Parametry

runtype
str
Wymagane

Wartość Run.type, dla której zostanie wywołana fabryka. Przykłady obejmują "hyperdrive" lub "azureml.scriptrun", ale można je rozszerzyć przy użyciu typów niestandardowych.

run_factory
<xref:function>
Wymagane

Funkcja z podpisem (Experiment, RunDto) —> uruchomienie, które ma zostać wywołane podczas uruchamiania listy.

cancel

Oznacz przebieg jako anulowany.

Jeśli istnieje skojarzone zadanie z ustawionym polem cancel_uri, zakończ to zadanie również.

cancel()

child_run

Utwórz przebieg podrzędny.

child_run(name=None, run_id=None, outputs=None)

Parametry

name
str
wartość domyślna: None

Opcjonalna nazwa przebiegu podrzędnego, zazwyczaj określona dla "części".

run_id
str
wartość domyślna: None

Opcjonalny identyfikator przebiegu dla elementu podrzędnego, w przeciwnym razie jest generowany automatycznie. Zazwyczaj ten parametr nie jest ustawiony.

outputs
str
wartość domyślna: None

Opcjonalny katalog danych wyjściowych do śledzenia dla elementu podrzędnego.

Zwraca

Przebieg podrzędny.

Typ zwracany

Run

Uwagi

Służy to do izolowania części przebiegu w podsekcji. Można to zrobić w przypadku możliwych do zidentyfikowania "części" przebiegu, które są interesujące do oddzielenia, lub przechwycenia niezależnych metryk między międzyprocesami.

Jeśli dla podrzędnego uruchomienia zostanie ustawiony katalog wyjściowy, zawartość tego katalogu zostanie przekazana do podrzędnego rekordu przebiegu po zakończeniu działania podrzędnego.

clean

Usuń pliki odpowiadające bieżącemu uruchomieniu w elemencie docelowym określonym w konfiguracji przebiegu.

clean()

Zwraca

Lista usuniętych plików.

Typ zwracany

complete

Poczekaj na przetworzenie kolejki zadań.

Następnie przebieg jest oznaczony jako ukończony. Jest to zwykle używane w scenariuszach notesu interaktywnego.

complete(_set_status=True)

Parametry

_set_status
bool
wartość domyślna: True

Wskazuje, czy zdarzenie stanu ma być wysyłane do śledzenia.

create_children

Utwórz jedno lub wiele przebiegów podrzędnych.

create_children(count=None, tag_key=None, tag_values=None)

Parametry

count
int
wartość domyślna: None

Opcjonalna liczba elementów podrzędnych do utworzenia.

tag_key
str
wartość domyślna: None

Opcjonalny klucz umożliwiający wypełnienie wpisu Tagi we wszystkich utworzonych elementach podrzędnych.

tag_Values
Wymagane

Opcjonalna lista wartości, które zostaną zamapowe na tagi[tag_key] dla utworzonej listy przebiegów.

tag_values
wartość domyślna: None

Zwraca

Lista przebiegów podrzędnych.

Typ zwracany

Uwagi

Należy określić parametr count LUB parametry tag_key AND tag_values .

download_file

Pobierz skojarzony plik z magazynu.

download_file(name, output_file_path=None, _validate_checksum=False)

Parametry

name
str
Wymagane

Nazwa artefaktu do pobrania.

output_file_path
str
Wymagane

Ścieżka lokalna, w której ma być przechowywany artefakt.

download_files

Pobierz pliki z danego prefiksu magazynu (nazwy folderu) lub całego kontenera, jeśli prefiks jest nieokreślony.

download_files(prefix=None, output_directory=None, output_paths=None, batch_size=100, append_prefix=True, timeout_seconds=None)

Parametry

prefix
str
Wymagane

Prefiks ścieżki plików w kontenerze, z którego mają być pobierane wszystkie artefakty.

output_directory
str
Wymagane

Opcjonalny katalog, którego wszystkie ścieżki artefaktów używają jako prefiksu.

output_paths
[str]
Wymagane

Opcjonalne ścieżki plików, w których mają być przechowywane pobrane artefakty. Powinna być unikatowa i dopasować długość ścieżek.

batch_size
int
Wymagane

Liczba plików do pobrania na partię. Wartość domyślna to 100 plików.

append_prefix
bool
Wymagane

Opcjonalna flaga dołączania określonego prefiksu z końcowej ścieżki pliku wyjściowego. Jeśli wartość False, prefiks zostanie usunięty ze ścieżki pliku wyjściowego.

timeout_seconds
int
Wymagane

Limit czasu pobierania plików.

fail

Oznacz przebieg jako nieudany.

Opcjonalnie ustaw właściwość Error przebiegu z komunikatem lub wyjątkiem przekazanym do .error_details

fail(error_details=None, error_code=None, _set_status=True)

Parametry

error_details
str lub BaseException
wartość domyślna: None

Opcjonalne szczegóły błędu.

error_code
str
wartość domyślna: None

Opcjonalny kod błędu błędu klasyfikacji błędów.

_set_status
bool
wartość domyślna: True

Wskazuje, czy zdarzenie stanu ma być wysyłane do śledzenia.

flush

Poczekaj na przetworzenie kolejki zadań.

flush(timeout_seconds=300)

Parametry

timeout_seconds
int
wartość domyślna: 300

Czas oczekiwania (w sekundach) na przetworzenie kolejki zadań.

get

Pobierz przebieg dla tego obszaru roboczego z identyfikatorem przebiegu.

static get(workspace, run_id)

Parametry

workspace
Workspace
Wymagane

Zawierający obszar roboczy.

run_id
string
Wymagane

Identyfikator przebiegu.

Zwraca

Przesłany przebieg.

Typ zwracany

Run

get_all_logs

Pobierz wszystkie dzienniki przebiegu do katalogu.

get_all_logs(destination=None)

Parametry

destination
str
wartość domyślna: None

Ścieżka docelowa do przechowywania dzienników. Jeśli nie zostanie określona, w katalogu projektu zostanie utworzony katalog o nazwie o nazwie identyfikator uruchomienia.

Zwraca

Lista nazw pobranych dzienników.

Typ zwracany

get_children

Pobierz wszystkie elementy podrzędne dla bieżącego przebiegu wybranego przez określone filtry.

get_children(recursive=False, tags=None, properties=None, type=None, status=None, _rehydrate_runs=True)

Parametry

recursive
bool
wartość domyślna: False

Wskazuje, czy mają być powtarzane przez wszystkie elementy podrzędne.

tags
str lub dict
wartość domyślna: None

Jeśli zostanie określony, funkcja zwraca przebiegi pasujące do określonego "tagu" lub {"tag": "value"}.

properties
str lub dict
wartość domyślna: None

Jeśli zostanie określony, funkcja zwraca przebiegi zgodne z określoną właściwością lub {"property": "value"}.

type
str
wartość domyślna: None

Jeśli zostanie określony, funkcja zwraca przebiegi pasujące do tego typu.

status
str
wartość domyślna: None

Jeśli zostanie określony, funkcja zwraca przebiegi ze stanem określonym jako "status".

_rehydrate_runs
bool
wartość domyślna: True

Wskazuje, czy należy utworzyć wystąpienie przebiegu oryginalnego typu, czy podstawowego przebiegu.

Zwraca

Lista Run obiektów.

Typ zwracany

get_context

Zwraca bieżący kontekst usługi.

Użyj tej metody, aby pobrać bieżący kontekst usługi na potrzeby rejestrowania metryk i przekazywania plików. Jeśli allow_offline ma wartość True (wartość domyślna), akcje względem obiektu Run zostaną wydrukowane w celu ustawienia standardowego.

get_context(allow_offline=True, used_for_context_manager=False, **kwargs)

Parametry

cls
Wymagane

Wskazuje metodę klasy.

allow_offline
bool
wartość domyślna: True

Zezwalaj kontekstowi usługi na powrót do trybu offline, aby skrypt trenowania mógł być testowany lokalnie bez przesyłania zadania za pomocą zestawu SDK. Wartość true domyślnie.

kwargs
dict
Wymagane

Słownik dodatkowych parametrów.

used_for_context_manager
wartość domyślna: False

Zwraca

Przesłany przebieg.

Typ zwracany

Run

Uwagi

Ta funkcja jest często używana do pobierania uwierzytelnionego obiektu Run wewnątrz skryptu, który ma zostać przesłany do wykonania za pośrednictwem pliku experiment.submit(). Ten obiekt przebiegu jest zarówno kontekstem uwierzytelnianym w celu komunikowania się z usługami Azure Machine Learning, jak i kontenerem koncepcyjnym, w którym znajdują się metryki, pliki (artefakty) i modele.


   run = Run.get_context() # allow_offline=True by default, so can be run locally as well
   ...
   run.log("Accuracy", 0.98)
   run.log_row("Performance", epoch=e, error=err)

get_detailed_status

Pobierz najnowszy stan przebiegu. Jeśli stan przebiegu to "W kolejce", zostaną wyświetlone szczegóły.

get_detailed_status()

Zwraca

Najnowszy stan i szczegóły

Typ zwracany

Uwagi

  • status: bieżący stan przebiegu. Taka sama wartość jak zwrócona z get_status().

  • szczegóły: szczegółowe informacje dotyczące bieżącego stanu.


   run = experiment.submit(config)
   details = run.get_detailed_status()
   # details = {
   #     'status': 'Queued',
   #     'details': 'Run requested 1 node(s). Run is in pending status.',
   # }

get_details

Pobierz definicję, informacje o stanie, bieżące pliki dziennika i inne szczegóły przebiegu.

get_details()

Zwraca

Zwracanie szczegółów przebiegu

Typ zwracany

Uwagi

Zwrócony słownik zawiera następujące pary klucz-wartość:

  • runId: identyfikator tego przebiegu.

  • Docelowego

  • status: bieżący stan przebiegu. Taka sama wartość jak zwrócona z get_status().

  • startTimeUtc: czas UTC rozpoczęcia tego przebiegu w iso8601.

  • endTimeUtc: czas UTC zakończenia tego przebiegu (Ukończono lub Niepowodzenie) w iso8601.

    Ten klucz nie istnieje, jeśli przebieg jest nadal w toku.

  • properties: Niezmienne pary klucz-wartość skojarzone z przebiegiem. Domyślne właściwości obejmują identyfikator migawki przebiegu oraz informacje o repozytorium Git, z którego utworzono przebieg (jeśli istnieje). Dodatkowe właściwości można dodać do przebiegu przy użyciu polecenia add_properties.

  • inputDatasets: wejściowe zestawy danych skojarzone z uruchomieniem.

  • outputDatasets: wyjściowe zestawy danych skojarzone z uruchomieniem.

  • Logfiles

  • submittedBy


   run = experiment.start_logging()

   details = run.get_details()
   # details = {
   #     'runId': '5c24aa28-6e4a-4572-96a0-fb522d26fe2d',
   #     'target': 'sdk',
   #     'status': 'Running',
   #     'startTimeUtc': '2019-01-01T13:08:01.713777Z',
   #     'endTimeUtc': '2019-01-01T17:15:65.986253Z',
   #     'properties': {
   #         'azureml.git.repository_uri': 'https://example.com/my/git/repo',
   #         'azureml.git.branch': 'master',
   #         'azureml.git.commit': '7dc972657c2168927a02c3bc2b161e0f370365d7',
   #         'azureml.git.dirty': 'True',
   #         'mlflow.source.git.repoURL': 'https://example.com/my/git/repo',
   #         'mlflow.source.git.branch': 'master',
   #         'mlflow.source.git.commit': '7dc972657c2168927a02c3bc2b161e0f370365d7',
   #         'ContentSnapshotId': 'b4689489-ce2f-4db5-b6d7-6ad11e77079c'
   #     },
   #     'inputDatasets': [{
   #         'dataset': {'id': 'cdebf245-701d-4a68-8055-41f9cf44f298'},
   #         'consumptionDetails': {
   #             'type': 'RunInput',
   #             'inputName': 'training-data',
   #             'mechanism': 'Mount',
   #             'pathOnCompute': '/mnt/datasets/train'
   #         }
   #     }],
   #     'outputDatasets': [{
   #         'dataset': {'id': 'd04e8a19-1caa-4b1f-b318-4cbff9af9615'},
   #         'outputType': 'RunOutput',
   #         'outputDetails': {
   #             'outputName': 'training-result'
   #         }
   #     }],
   #     'runDefinition': {},
   #     'logFiles': {},
   #     'submittedBy': 'Alan Turing'
   # }

get_details_with_logs

Zwracany jest stan przebiegu, w tym zawartość pliku dziennika.

get_details_with_logs()

Zwraca

Zwraca stan przebiegu z zawartością pliku dziennika.

Typ zwracany

get_environment

Pobierz definicję środowiska, która została użyta przez ten przebieg.

get_environment()

Zwraca

Zwróć obiekt środowiska.

Typ zwracany

get_file_names

Wyświetl listę plików przechowywanych w skojarzeniu z przebiegiem.

get_file_names()

Zwraca

Lista ścieżek dla istniejących artefaktów

Typ zwracany

get_metrics

Pobierz metryki zarejestrowane w przebiegu.

Jeśli recursive domyślnie ma wartość True (Fałsz), pobierz metryki dla przebiegów w poddrzewie danego przebiegu.

get_metrics(name=None, recursive=False, run_type=None, populate=False)

Parametry

name
str
wartość domyślna: None

Nazwa metryki.

recursive
bool
wartość domyślna: False

Wskazuje, czy mają być powtarzane przez wszystkie elementy podrzędne.

run_type
str
wartość domyślna: None
populate
bool
wartość domyślna: False

Wskazuje, czy pobrać zawartość danych zewnętrznych połączonych z metrykami.

Zwraca

Słownik zawierający metryki użytkowników.

Typ zwracany

Uwagi


   run = experiment.start_logging() # run id: 123
   run.log("A", 1)
   with run.child_run() as child: # run id: 456
       child.log("A", 2)

   metrics = run.get_metrics()
   # metrics = { 'A': 1 }

   metrics = run.get_metrics(recursive=True)
   # metrics = { '123': { 'A': 1 }, '456': { 'A': 2 } } note key is runId

get_properties

Pobierz najnowsze właściwości przebiegu z usługi.

get_properties()

Zwraca

Właściwości przebiegu.

Typ zwracany

Uwagi

Właściwości są niezmiennymi informacjami generowanymi przez system, takimi jak czas trwania, data wykonania, użytkownik i właściwości niestandardowe dodane za pomocą add_properties metody . Aby uzyskać więcej informacji, zobacz Tagowanie i znajdowanie przebiegów.

W przypadku przesyłania zadania do usługi Azure Machine Learning, jeśli pliki źródłowe są przechowywane w lokalnym repozytorium Git, informacje o repozytorium są przechowywane jako właściwości. Te właściwości usługi Git są dodawane podczas tworzenia przebiegu lub wywoływania pliku Experiment.submit. Aby uzyskać więcej informacji na temat właściwości usługi Git, zobacz Integracja z usługą Git dla usługi Azure Machine Learning.

get_secret

Pobierz wartość wpisu tajnego z kontekstu przebiegu.

Pobierz wartość wpisu tajnego dla podanej nazwy. Nazwa wpisu tajnego odwołuje się do wartości przechowywanej w usłudze Azure 密钥保管库 skojarzonej z obszarem roboczym. Aby zapoznać się z przykładem pracy z wpisami tajnymi, zobacz Używanie wpisów tajnych w przebiegach trenowania.

get_secret(name)

Parametry

name
str
Wymagane

Nazwa wpisu tajnego, dla którego ma być zwracany wpis tajny.

Zwraca

Wartość wpisu tajnego.

Typ zwracany

str

get_secrets

Pobierz wartości wpisów tajnych dla danej listy nazw wpisów tajnych.

Pobierz słownik znalezionych i nie odnalezionych wpisów tajnych dla podanej listy nazw. Każda nazwa wpisu tajnego odwołuje się do wartości przechowywanej w usłudze Azure 密钥保管库 skojarzonej z obszarem roboczym. Aby zapoznać się z przykładem pracy z wpisami tajnymi, zobacz Używanie wpisów tajnych w przebiegach trenowania.

get_secrets(secrets)

Parametry

secrets
list[str]
Wymagane

Lista nazw wpisów tajnych, dla których mają być zwracane wartości wpisów tajnych.

Zwraca

Zwraca słownik znalezionych i nieznanych wpisów tajnych.

Typ zwracany

dict[<xref:str: str>]

get_snapshot_id

Pobierz najnowszy identyfikator migawki.

get_snapshot_id()

Zwraca

Najnowszy identyfikator migawki.

Typ zwracany

str

get_status

Pobierz najnowszy stan przebiegu.

Zwracane wspólne wartości to "Running", "Completed" i "Failed".

get_status()

Zwraca

Najnowszy stan.

Typ zwracany

str

Uwagi

  • NotStarted — jest to tymczasowy stan obiektów uruchomień po stronie klienta przed przesłaniem do chmury.

  • Uruchamianie — uruchomienie zostało rozpoczęte w chmurze. Obiekt wywołujący ma w tym momencie identyfikator uruchomienia.

  • Aprowizacja — zwracana podczas tworzenia zasobów obliczeniowych na żądanie dla danego przesłania zadania.

  • Przygotowywanie — środowisko uruchomieniowe jest przygotowywane:

    • Kompilacja obrazu platformy Docker

    • Konfiguracja środowiska conda

  • W kolejce — zadanie jest kolejkowane w docelowym obiekcie obliczeniowym. Na przykład w usłudze BatchAI zadanie jest w stanie w kolejce

    podczas oczekiwania na gotowość wszystkich żądanych węzłów.

  • Uruchomione — zadanie zostało uruchomione w docelowym obiekcie obliczeniowym.

  • Finalizowanie — kod użytkownika został ukończony, a przebieg znajduje się na etapach przetwarzania końcowego.

  • CancelRequested — zażądano anulowania zadania.

  • Ukończono — przebieg został ukończony pomyślnie. Obejmuje to zarówno kod użytkownika, jak i uruchamianie

    etapy przetwarzania końcowego.

  • Niepowodzenie — przebieg zakończył się niepowodzeniem. Zazwyczaj właściwość Error w przebiegu zawiera szczegółowe informacje o przyczynie.

  • Anulowano — następuje żądanie anulowania i wskazuje, że przebieg został pomyślnie anulowany.

  • Brak odpowiedzi — w przypadku przebiegów z włączonymi pulsami nie wysłano ostatnio żadnego pulsu.


   run = experiment.submit(config)
   while run.get_status() not in ['Completed', 'Failed']: # For example purposes only, not exhaustive
       print('Run {} not in terminal state'.format(run.id))
       time.sleep(10)

get_submitted_run

PRZESTARZAŁE. Użyj polecenia get_context.

Pobierz przesłany przebieg dla tego eksperymentu.

get_submitted_run(**kwargs)

Zwraca

Przesłany przebieg.

Typ zwracany

Run

get_tags

Pobierz najnowszy zestaw tagów modyfikowalnych w przebiegu z usługi.

get_tags()

Zwraca

Tagi przechowywane w obiekcie run.

Typ zwracany

list

Pobierz listę przebiegów w eksperymencie określonym przez opcjonalne filtry.

static list(experiment, type=None, tags=None, properties=None, status=None, include_children=False, _rehydrate_runs=True)

Parametry

experiment
Experiment
Wymagane

Zawierający eksperyment.

type
str
wartość domyślna: None

Jeśli określono, zwraca przebiegi pasujące do określonego typu.

tags
str lub dict
wartość domyślna: None

Jeśli zostanie określony, zwraca przebiegi pasujące do określonego "tagu" lub {"tag": "value"}.

properties
str lub dict
wartość domyślna: None

Jeśli zostanie określony, zwraca przebiegi zgodne z określoną właściwością lub {"property": "value"}.

status
str
wartość domyślna: None

Jeśli określono, zwraca przebiegi ze stanem określonym "status".

include_children
bool
wartość domyślna: False

Jeśli ustawiono wartość true, pobierz wszystkie uruchomienia, nie tylko te najwyższego poziomu.

_rehydrate_runs
bool
wartość domyślna: True

Jeśli ustawiono wartość True (domyślnie), użyje zarejestrowanego dostawcy, aby ponownie zainicjować obiekt dla tego typu zamiast podstawowego uruchomienia.

Zwraca

Lista przebiegów.

Typ zwracany

Uwagi

Poniższy przykład kodu przedstawia niektóre zastosowania list metody .


   favorite_completed_runs = Run.list(experiment, status='Completed', tags='favorite')

   all_distinct_runs = Run.list(experiment)
   and_their_children = Run.list(experiment, include_children=True)

   only_script_runs = Run.list(experiment, type=ScriptRun.RUN_TYPE)

list_by_compute

Pobierz listę przebiegów w obliczeniach określonych przez opcjonalne filtry.

static list_by_compute(compute, type=None, tags=None, properties=None, status=None)

Parametry

compute
ComputeTarget
Wymagane

Zawierające zasoby obliczeniowe.

type
str
wartość domyślna: None

Jeśli określono, zwraca przebiegi pasujące do określonego typu.

tags
str lub dict
wartość domyślna: None

Jeśli zostanie określony, zwraca przebiegi pasujące do określonego "tagu" lub {"tag": "value"}.

properties
str lub dict
wartość domyślna: None

Jeśli zostanie określony, zwraca przebiegi zgodne z określoną właściwością lub {"property": "value"}.

status
str
wartość domyślna: None

Jeśli określono, zwraca przebiegi ze stanem określonym "status". Dozwolone wartości to "Running" (Uruchomione) i "Queued".

Zwraca

generator ~_restclient.models.RunDto

Typ zwracany

<xref:builtin.generator>

log

Zarejestruj wartość metryki do przebiegu przy użyciu podanej nazwy.

log(name, value, description='', step=None)

Parametry

name
str
Wymagane

Nazwa metryki.

value
Wymagane

Wartość, która ma zostać wysłana do usługi.

description
str
Wymagane

Opcjonalny opis metryki.

step
int
wartość domyślna: None

Opcjonalna oś określająca kolejność wartości w obrębie metryki.

Uwagi

Rejestrowanie metryki w przebiegu powoduje, że metryka ma być przechowywana w rekordzie uruchamiania w eksperymencie. Tę samą metrykę można rejestrować wiele razy w ramach przebiegu. Wynik jest uznawany za wektor tej metryki. Jeśli krok jest określony dla metryki, musi zostać określony dla wszystkich wartości.

log_accuracy_table

Rejestrowanie tabeli dokładności w magazynie artefaktów.

Metryka tabeli dokładności to wielowymiarowa metryka, która może służyć do tworzenia wielu typów wykresów liniowych, które różnią się stale w przestrzeni przewidywanych prawdopodobieństwa. Przykłady tych wykresów to krzywe ROC, precyzja i krzywe podnoszenia.

Obliczenie tabeli dokładności jest podobne do obliczania krzywej ROC. Krzywa ROC przechowuje prawdziwe dodatnie wskaźniki i fałszywie dodatnie wskaźniki przy wielu różnych progach prawdopodobieństwa. Tabela dokładności przechowuje nieprzetworzona liczba wyników prawdziwie dodatnich, wyników fałszywie dodatnich, prawdziwie ujemnych i fałszywie ujemnych przy wielu progach prawdopodobieństwa.

Istnieją dwie metody służące do wybierania progów: "prawdopodobieństwo" i "percentyl". Różnią się one sposobem próbkowania od przestrzeni przewidywanych prawdopodobieństwa.

Progi prawdopodobieństwa są równomiernie odstępami od 0 do 1. Jeśli NUM_POINTS wynosi 5, progi prawdopodobieństwa to [0.0, 0.25, 0.5, 0.75, 1.0].

Progi percentylu są rozmieszczone zgodnie z rozkładem przewidywanych prawdopodobieństwa. Każdy próg odpowiada percentylowi danych na progu prawdopodobieństwa. Jeśli na przykład NUM_POINTS wynosi 5, pierwszy próg będzie wynosić 0 percentyl, drugi na 25. percentyl, trzeci na 50. i tak dalej.

Tabele prawdopodobieństwa i tabele percentylu są zarówno listami 3D, gdzie pierwszy wymiar reprezentuje etykietę klasy, drugi wymiar reprezentuje próbkę przy jednym progu (skale z NUM_POINTS), a trzeci wymiar zawsze ma 4 wartości: TP, FP, TN, FN i zawsze w tej kolejności.

Wartości pomyłek (TP, FP, TN, FN) są obliczane przy użyciu jednej strategii a rest. Aby uzyskać więcej informacji, zobacz następujący link: https://en.wikipedia.org/wiki/Multiclass_classification

N = liczba przykładów w zestawie danych weryfikacji (na przykład 200) M = # progi = # próbki pobrane z obszaru prawdopodobieństwa (na przykład 5) C = # klasy w pełnym zestawie danych (przykład 3 w przykładzie)

Niektóre niezmienne wartości tabeli dokładności:

  • TP + FP + TN + FN = N dla wszystkich progów dla wszystkich klas
  • Tp + FN jest taka sama we wszystkich progach dla dowolnej klasy
  • TN + FP jest taka sama we wszystkich progach dla dowolnej klasy
  • Tabele prawdopodobieństwa i tabele percentylu mają kształt [C, M, 4]

Uwaga: język M może być dowolną wartością i kontroluje rozdzielczość wykresów Jest to niezależne od zestawu danych, jest definiowane podczas obliczania metryk i zajmuje się miejscem do magazynowania, czasem obliczeń i rozdzielczością.

Etykiety klas powinny być ciągami, wartości pomyłek powinny być liczbami całkowitymi, a progi powinny być zmiennoprzecinkowe.

log_accuracy_table(name, value, description='')

Parametry

name
str
Wymagane

Nazwa tabeli dokładności.

value
str lub dict
Wymagane

Kod JSON zawierający właściwości nazwy, wersji i danych.

description
str
Wymagane

Opcjonalny opis metryki.

Uwagi

Przykład prawidłowej wartości JSON:


   {
       "schema_type": "accuracy_table",
       "schema_version": "1.0.1",
       "data": {
           "probability_tables": [
               [
                   [82, 118, 0, 0],
                   [75, 31, 87, 7],
                   [66, 9, 109, 16],
                   [46, 2, 116, 36],
                   [0, 0, 118, 82]
               ],
               [
                   [60, 140, 0, 0],
                   [56, 20, 120, 4],
                   [47, 4, 136, 13],
                   [28, 0, 140, 32],
                   [0, 0, 140, 60]
               ],
               [
                   [58, 142, 0, 0],
                   [53, 29, 113, 5],
                   [40, 10, 132, 18],
                   [24, 1, 141, 34],
                   [0, 0, 142, 58]
               ]
           ],
           "percentile_tables": [
               [
                   [82, 118, 0, 0],
                   [82, 67, 51, 0],
                   [75, 26, 92, 7],
                   [48, 3, 115, 34],
                   [3, 0, 118, 79]
               ],
               [
                   [60, 140, 0, 0],
                   [60, 89, 51, 0],
                   [60, 41, 99, 0],
                   [46, 5, 135, 14],
                   [3, 0, 140, 57]
               ],
               [
                   [58, 142, 0, 0],
                   [56, 93, 49, 2],
                   [54, 47, 95, 4],
                   [41, 10, 132, 17],
                   [3, 0, 142, 55]
               ]
           ],
           "probability_thresholds": [0.0, 0.25, 0.5, 0.75, 1.0],
           "percentile_thresholds": [0.0, 0.01, 0.24, 0.98, 1.0],
           "class_labels": ["0", "1", "2"]
       }
   }

log_confusion_matrix

Rejestrowanie macierzy pomyłek w magazynie artefaktów.

Rejestruje otokę wokół macierzy pomyłek sklearn. Dane metryk zawierają etykiety klas i listę 2D dla samej macierzy. Aby uzyskać więcej informacji na temat sposobu obliczania metryki, zobacz następujący link: https://scikit-learn.org/stable/modules/generated/sklearn.metrics.confusion_matrix.html

log_confusion_matrix(name, value, description='')

Parametry

name
str
Wymagane

Nazwa macierzy pomyłek.

value
str lub dict
Wymagane

Kod JSON zawierający właściwości nazwy, wersji i danych.

description
str
Wymagane

Opcjonalny opis metryki.

Uwagi

Przykład prawidłowej wartości JSON:


   {
       "schema_type": "confusion_matrix",
       "schema_version": "1.0.0",
       "data": {
           "class_labels": ["0", "1", "2", "3"],
           "matrix": [
               [3, 0, 1, 0],
               [0, 1, 0, 1],
               [0, 0, 1, 0],
               [0, 0, 0, 1]
           ]
       }
   }

log_image

Rejestrowanie metryki obrazu w rekordzie uruchamiania.

log_image(name, path=None, plot=None, description='')

Parametry

name
str
Wymagane

Nazwa metryki.

path
str
Wymagane

Ścieżka lub strumień obrazu.

plot
<xref:matplotlib.pyplot>
Wymagane

Wykres do rejestrowania jako obrazu.

description
str
Wymagane

Opcjonalny opis metryki.

Uwagi

Ta metoda służy do rejestrowania pliku obrazu lub wykresu matplotlib do uruchomienia. Te obrazy będą widoczne i porównywalne w rekordzie przebiegu.

log_list

Zarejestruj listę wartości metryk do przebiegu o podanej nazwie.

log_list(name, value, description='')

Parametry

name
str
Wymagane

Nazwa metryki.

value
list
Wymagane

Wartości metryki.

description
str
Wymagane

Opcjonalny opis metryki.

log_predictions

Rejestrowanie przewidywań w magazynie artefaktów.

Rejestruje wynik metryki, który może służyć do porównywania rozkładów rzeczywistych wartości docelowych do rozkładu przewidywanych wartości dla zadania regresji.

Przewidywania są binned, a odchylenia standardowe są obliczane dla słupków błędów na wykresie liniowym.

log_predictions(name, value, description='')

Parametry

name
str
Wymagane

Nazwa przewidywań.

value
str lub dict
Wymagane

Kod JSON zawierający właściwości nazwy, wersji i danych.

description
str
Wymagane

Opcjonalny opis metryki.

Uwagi

Przykład prawidłowej wartości JSON:


   {
       "schema_type": "predictions",
       "schema_version": "1.0.0",
       "data": {
           "bin_averages": [0.25, 0.75],
           "bin_errors": [0.013, 0.042],
           "bin_counts": [56, 34],
           "bin_edges": [0.0, 0.5, 1.0]
       }
   }

log_residuals

Rejestruje reszty w magazynie artefaktów.

Rejestruje dane potrzebne do wyświetlenia histogramu reszt dla zadania regresji. Reszty są przewidywane — rzeczywiste.

Liczba liczników powinna być większa niż jedna krawędź. Zapoznaj się z dokumentacją histogramu numpy, aby zapoznać się z przykładami użycia liczb i krawędzi do reprezentowania histogramu. https://docs.scipy.org/doc/numpy/reference/generated/numpy.histogram.html

log_residuals(name, value, description='')

Parametry

name
str
Wymagane

Nazwa reszt.

value
str lub dict
Wymagane

Kod JSON zawierający właściwości nazwy, wersji i danych.

description
str
Wymagane

Opcjonalny opis metryki.

Uwagi

Przykład prawidłowej wartości JSON:


   {
       "schema_type": "residuals",
       "schema_version": "1.0.0",
       "data": {
           "bin_edges": [50, 100, 200, 300, 350],
           "bin_counts": [0.88, 20, 30, 50.99]
       }
   }

log_row

Zarejestruj metrykę wiersza w przebiegu o podanej nazwie.

log_row(name, description=None, **kwargs)

Parametry

name
str
Wymagane

Nazwa metryki.

description
str
wartość domyślna: None

Opcjonalny opis metryki.

kwargs
dict
Wymagane

Słownik dodatkowych parametrów. W tym przypadku kolumny metryki.

Uwagi

Użycie polecenia log_row tworzy metrykę tabeli z kolumnami zgodnie z opisem w artykule kwargs. Każdy nazwany parametr generuje kolumnę z określoną wartością. log_row Można wywołać raz, aby zarejestrować dowolną krotkę lub wiele razy w pętli w celu wygenerowania pełnej tabeli.


   citrus = ['orange', 'lemon', 'lime']
   sizes = [ 10, 7, 3]
   for index in range(len(citrus)):
       run.log_row("citrus", fruit = citrus[index], size=sizes[index])

log_table

Zarejestruj metrykę tabeli w przebiegu o podanej nazwie.

log_table(name, value, description='')

Parametry

name
str
Wymagane

Nazwa metryki.

value
dict
Wymagane

Wartość tabeli metryki, słownika, w którym klucze są kolumnami, które mają być publikowane w usłudze.

description
str
Wymagane

Opcjonalny opis metryki.

register_model

Rejestrowanie modelu na potrzeby operacjonalizacji.

register_model(model_name, model_path=None, tags=None, properties=None, model_framework=None, model_framework_version=None, description=None, datasets=None, sample_input_dataset=None, sample_output_dataset=None, resource_configuration=None, **kwargs)

Parametry

model_name
str
Wymagane

Nazwa modelu.

model_path
str
wartość domyślna: None

Względna ścieżka chmury do modelu, na przykład "outputs/modelname". Jeśli nie określono wartości (None), model_name jest używana jako ścieżka.

tags
dict[str, str]
wartość domyślna: None

Słownik tagów wartości klucza do przypisania do modelu.

properties
dict[str, str]
wartość domyślna: None

Słownik właściwości wartości klucza do przypisania do modelu. Tych właściwości nie można zmienić po utworzeniu modelu, ale można dodać nowe pary klucz-wartość.

model_framework
str
wartość domyślna: None

Struktura modelu do zarejestrowania. Obecnie obsługiwane platformy: TensorFlow, ScikitLearn, Onnx, Custom, Multi

model_framework_version
str
wartość domyślna: None

Wersja struktury zarejestrowanego modelu.

description
str
wartość domyślna: None

Opcjonalny opis modelu.

datasets
list[(str, AbstractDataset)]
wartość domyślna: None

Lista krotki, w których pierwszy element opisuje relację dataset-model, a drugi element to zestaw danych.

sample_input_dataset
AbstractDataset
wartość domyślna: None

Opcjonalny. Przykładowy wejściowy zestaw danych dla zarejestrowanego modelu

sample_output_dataset
AbstractDataset
wartość domyślna: None

Opcjonalny. Przykładowy wyjściowy zestaw danych dla zarejestrowanego modelu

resource_configuration
ResourceConfiguration
wartość domyślna: None

Opcjonalny. Konfiguracja zasobów do uruchamiania zarejestrowanego modelu

kwargs
dict
Wymagane

Parametry opcjonalne.

Zwraca

Zarejestrowany model.

Typ zwracany

Uwagi


   model = best_run.register_model(model_name = 'best_model', model_path = 'outputs/model.pkl')

remove_tags

Usuń listę tagów modyfikowalnych w tym przebiegu.

remove_tags(tags)

Parametry

tags
list
Wymagane

Lista tagów do usunięcia.

Zwraca

Tagi przechowywane w obiekcie run

restore_snapshot

Przywróć migawkę jako plik ZIP. Zwraca ścieżkę do pliku ZIP.

restore_snapshot(snapshot_id=None, path=None)

Parametry

snapshot_id
str
wartość domyślna: None

Identyfikator migawki do przywrócenia. Jeśli nie zostanie określona, zostanie użyta najnowsza wersja.

path
str
wartość domyślna: None

Ścieżka, w której jest zapisywany pobrany plik ZIP.

Zwraca

Ścieżka.

Typ zwracany

str

set_tags

Dodaj lub zmodyfikuj zestaw tagów w przebiegu. Tagi, które nie są przekazywane w słowniku, pozostają niezmienione.

Można również dodać proste tagi ciągów. Gdy te tagi są wyświetlane w słowniku tagów jako klucze, mają wartość None. Aby uzyskać więcej informacji, zobacz Tagowanie i znajdowanie przebiegów.

set_tags(tags)

Parametry

tags
dict[str] lub str
Wymagane

Tagi przechowywane w obiekcie run.

start

Oznacz przebieg jako rozpoczęty.

Jest to zwykle używane w zaawansowanych scenariuszach, gdy przebieg został utworzony przez innego aktora.

start()

submit_child

Prześlij eksperyment i zwróć aktywny przebieg podrzędny.

submit_child(config, tags=None, **kwargs)

Parametry

config
object
Wymagane

Konfiguracja do przesłania.

tags
dict
wartość domyślna: None

Tagi do dodania do przesłanego przebiegu, np. {"tag": "value"}.

kwargs
dict
Wymagane

Dodatkowe parametry używane w funkcji submit dla konfiguracji.

Zwraca

Obiekt przebiegu.

Typ zwracany

Run

Uwagi

Submit to asynchroniczne wywołanie platformy Azure Machine Learning w celu wykonania wersji próbnej na sprzęcie lokalnym lub zdalnym. W zależności od konfiguracji przesyłanie automatycznie przygotuje środowiska wykonawcze, wykona kod i przechwyci kod źródłowy oraz wyniki do historii uruchamiania eksperymentu.

Aby przesłać eksperyment, należy najpierw utworzyć obiekt konfiguracji opisujący sposób uruchamiania eksperymentu. Konfiguracja zależy od wymaganego typu wersji próbnej.

Przykładowy sposób przesyłania eksperymentu podrzędnego z komputera lokalnego przy użyciu ScriptRunConfig metody jest następujący:


   from azureml.core import ScriptRunConfig

   # run a trial from the train.py code in your current directory
   config = ScriptRunConfig(source_directory='.', script='train.py',
       run_config=RunConfiguration())
   run = parent_run.submit_child(config)

   # get the url to view the progress of the experiment and then wait
   # until the trial is complete
   print(run.get_portal_url())
   run.wait_for_completion()

Aby uzyskać szczegółowe informacje na temat konfigurowania przebiegu, zobacz submit.

tag

Oznaczanie przebiegu kluczem ciągu i opcjonalną wartością ciągu.

tag(key, value=None)

Parametry

key
str
Wymagane

Klucz tagu

value
str
wartość domyślna: None

Opcjonalna wartość tagu

Uwagi

Tagi i właściwości w przebiegu to słowniki ciągu —> ciąg. Różnica między nimi jest niezmienność: tagi można ustawiać, aktualizować i usuwać, podczas gdy właściwości można dodawać tylko. Dzięki temu właściwości są bardziej odpowiednie dla wyzwalaczy zachowania związanego z systemem/przepływem pracy, natomiast tagi są zwykle dostępne dla użytkowników i mają znaczenie dla użytkowników eksperymentu.


   run = experiment.start_logging()
   run.tag('DeploymentCandidate')
   run.tag('modifiedBy', 'Master CI')
   run.tag('modifiedBy', 'release pipeline') # Careful, tags are mutable

   run.add_properties({'BuildId': os.environ.get('VSTS_BUILD_ID')}) # Properties are not

   tags = run.get_tags()
   # tags = { 'DeploymentCandidate': None, 'modifiedBy': 'release pipeline' }

take_snapshot

Zapisz migawkę pliku lub folderu wejściowego.

take_snapshot(file_or_folder_path)

Parametry

file_or_folder_path
str
Wymagane

Plik lub folder zawierający kod źródłowy przebiegu.

Zwraca

Zwraca identyfikator migawki.

Typ zwracany

str

Uwagi

Migawki mają być kodem źródłowym używanym do wykonywania przebiegu eksperymentu. Są one przechowywane przy użyciu przebiegu, aby można było replikować wersję próbną w przyszłości.

Uwaga

Migawki są tworzone automatycznie po submit wywołaniu. Zazwyczaj ta metoda take_snapshot jest wymagana tylko w przypadku przebiegów interaktywnych (notesów).

upload_file

Przekaż plik do rekordu uruchamiania.

upload_file(name, path_or_stream, datastore_name=None)

Parametry

name
str
Wymagane

Nazwa pliku do przekazania.

path_or_stream
str
Wymagane

Względna ścieżka lokalna lub strumień do pliku do przekazania.

datastore_name
str
Wymagane

Opcjonalna nazwa magazynu danych

Typ zwracany

Uwagi


   run = experiment.start_logging()
   run.upload_file(name='important_file', path_or_stream="path/on/disk/file.txt")

Uwaga

Uruchamia automatycznie przechwytywanie pliku w określonym katalogu wyjściowym, który domyślnie ma wartość "./outputs" dla większości typów uruchamiania. Użyj upload_file tylko wtedy, gdy dodatkowe pliki muszą zostać przekazane lub katalog wyjściowy nie zostanie określony.

upload_files

Przekazywanie plików do rekordu przebiegu.

upload_files(names, paths, return_artifacts=False, timeout_seconds=None, datastore_name=None)

Parametry

names
list
Wymagane

Nazwy plików do przekazania. W przypadku ustawienia należy również ustawić ścieżki.

paths
list
Wymagane

Względne ścieżki lokalne do plików do przekazania. W przypadku ustawienia nazwy są wymagane.

return_artifacts
bool
Wymagane

Wskazuje, że dla każdego przekazanego pliku powinien zostać zwrócony obiekt artefaktu.

timeout_seconds
int
Wymagane

Limit czasu przekazywania plików.

datastore_name
str
Wymagane

Opcjonalna nazwa magazynu danych

Uwagi

upload_files ma taki sam wpływ jak upload_file w przypadku oddzielnych plików, jednak w przypadku korzystania z usługi występują korzyści związane z upload_fileswydajnością i wykorzystaniem zasobów.


   import os

   run = experiment.start_logging()
   file_name_1 = 'important_file_1'
   file_name_2 = 'important_file_2'
   run.upload_files(names=[file_name_1, file_name_2],
                       paths=['path/on/disk/file_1.txt', 'other/path/on/disk/file_2.txt'])

   run.download_file(file_name_1, 'file_1.txt')

   os.mkdir("path")  # The path must exist
   run.download_file(file_name_2, 'path/file_2.txt')

Uwaga

Uruchamia automatyczne przechwytywanie plików w określonym katalogu danych wyjściowych, który domyślnie określa wartość "./outputs" dla większości typów uruchamiania. Użyj upload_files tylko wtedy, gdy dodatkowe pliki muszą zostać przekazane lub katalog wyjściowy nie zostanie określony.

upload_folder

Przekaż określony folder do podanej nazwy prefiksu.

upload_folder(name, path, datastore_name=None)

Parametry

name
str
Wymagane

Nazwa folderu plików do przekazania.

folder
str
Wymagane

Względna ścieżka lokalna do folderu do przekazania.

datastore_name
str
Wymagane

Opcjonalna nazwa magazynu danych

Uwagi


   run = experiment.start_logging()
   run.upload_folder(name='important_files', path='path/on/disk')

   run.download_file('important_files/existing_file.txt', 'local_file.txt')

Uwaga

Uruchamia automatyczne przechwytywanie plików w określonym katalogu danych wyjściowych, który domyślnie określa wartość "./outputs" dla większości typów uruchamiania. Użyj upload_folder tylko wtedy, gdy dodatkowe pliki muszą zostać przekazane lub katalog wyjściowy nie zostanie określony.

wait_for_completion

Poczekaj na ukończenie tego przebiegu. Zwraca obiekt status po oczekiwaniu.

wait_for_completion(show_output=False, wait_post_processing=False, raise_on_error=True)

Parametry

show_output
bool
wartość domyślna: False

Wskazuje, czy dane wyjściowe przebiegu mają być wyświetlane w pliku sys.stdout.

wait_post_processing
bool
wartość domyślna: False

Wskazuje, czy poczekać na zakończenie przetwarzania końcowego po zakończeniu przebiegu.

raise_on_error
bool
wartość domyślna: True

Wskazuje, czy błąd jest zgłaszany, gdy przebieg jest w stanie niepowodzenia.

Zwraca

Obiekt stanu.

Typ zwracany

Atrybuty

description

Zwróć opis przebiegu.

Opcjonalny opis przebiegu jest ciągiem określonym przez użytkownika przydatnym do opisywania przebiegu.

Zwraca

Opis przebiegu.

Typ zwracany

str

display_name

Zwróć nazwę wyświetlaną przebiegu.

Opcjonalna nazwa wyświetlana przebiegu jest ciągiem określonym przez użytkownika przydatnym do późniejszej identyfikacji przebiegu.

Zwraca

Nazwa wyświetlana przebiegu.

Typ zwracany

str

experiment

Pobierz eksperyment zawierający przebieg.

Zwraca

Pobiera eksperyment odpowiadający przebiegowi.

Typ zwracany

id

Pobierz identyfikator przebiegu.

Identyfikator przebiegu jest unikatowym identyfikatorem w całym zawierającym eksperymencie.

Zwraca

Identyfikator przebiegu.

Typ zwracany

str

name

PRZESTARZAŁE. Użyj display_name.

Opcjonalna nazwa przebiegu jest ciągiem określonym przez użytkownika przydatnym do późniejszej identyfikacji przebiegu.

Zwraca

Identyfikator przebiegu.

Typ zwracany

str

number

Pobierz numer przebiegu.

Monotonicznie rosnąca liczba reprezentująca kolejność przebiegów w ramach eksperymentu.

Zwraca

Numer przebiegu.

Typ zwracany

int

parent

Pobierz przebieg nadrzędny dla tego przebiegu z usługi.

Przebiegi mogą mieć opcjonalny element nadrzędny, co powoduje potencjalną hierarchię drzewa przebiegów. Aby zarejestrować metryki w przebiegu nadrzędnym, użyj log metody obiektu nadrzędnego, na przykład run.parent.log().

Zwraca

Uruchomienie nadrzędne lub Brak, jeśli go nie ustawiono.

Typ zwracany

Run

properties

Zwróć niezmienne właściwości tego przebiegu.

Zwraca

Lokalnie buforowane właściwości przebiegu.

Typ zwracany

dict[str],
str

Uwagi

Właściwości obejmują niezmienne informacje generowane przez system, takie jak czas trwania, data wykonania, użytkownik itp.

status

Zwróć stan obiektu przebiegu.

tags

Zwróć zestaw tagów modyfikowalnych w tym przebiegu.

Zwraca

Tagi przechowywane w obiekcie run.

Typ zwracany

type

Pobierz typ przebiegu.

Wskazuje sposób tworzenia lub konfigurowania przebiegu.

Zwraca

Typ przebiegu.

Typ zwracany

str