Experiment Klasse

Stellt den Haupteinstiegspunkt zum Erstellen und Arbeiten mit Experimenten in Azure Machine Learning dar.

Ein Experiment ist ein Container mit Tests, die aus mehreren Modellausführungen bestehen.

Experimentkonstruktor.

Vererbung
azureml._logging.chained_identity.ChainedIdentity
Experiment
azureml.core._portal.HasExperimentPortal
Experiment

Konstruktor

Experiment(workspace, name, _skip_name_validation=False, _id=None, _archived_time=None, _create_in_cloud=True, _experiment_dto=None, **kwargs)

Parameter

workspace
Workspace
Erforderlich

Das Arbeitsbereichsobjekt, das das Experiment enthält.

name
str
Erforderlich

Den Experimentnamen.

kwargs
dict
Erforderlich

Ein Wörterbuch mit Schlüsselwortargumenten.

workspace
Workspace
Erforderlich

Das Arbeitsbereichsobjekt, das das Experiment enthält.

name
str
Erforderlich

Den Experimentnamen.

kwargs
dict
Erforderlich

Ein Wörterbuch mit Schlüsselwortargumenten.

_skip_name_validation
Standardwert: False
_id
Standardwert: None
_archived_time
Standardwert: None
_create_in_cloud
Standardwert: True
_experiment_dto
Standardwert: None

Hinweise

Ein Azure Machine Learning-Experiment stellt die Sammlung von Testversionen dar, die verwendet werden, um die Hypothese eines Benutzers zu überprüfen.

In Azure Machine Learning wird ein Experiment durch die Experiment-Klasse und eine Testversion durch die Run-Klasse dargestellt.

Um ein Experiment aus einem Arbeitsbereich abzurufen oder zu erstellen, fordern Sie das Experiment mithilfe des Experimentnamens an. Der Experimentname muss 3–36 Zeichen umfassen, mit einem Buchstaben oder einer Zahl beginnen und darf nur Buchstaben, Ziffern, Unterstriche und Bindestriche enthalten.


   experiment = Experiment(workspace, "MyExperiment")

Wenn das Experiment nicht im Arbeitsbereich gefunden wird, wird ein neues Experiment erstellt.

Experimenttests können auf zwei Arten ausgeführt werden. Wenn Sie interaktiv in einem Jupyter Notebook experimentieren, verwenden Sie start_logging. Wenn Sie ein Experiment aus dem Quellcode oder einen anderen konfigurierten Test übermitteln, verwenden Sie submit.

Bei beiden Mechanismen wird ein Run-Objekt erstellt. Verwenden Sie in interaktiven Szenarien Protokollierungsmethoden wie log, um dem Testdatensatz Messungen und Metriken hinzuzufügen. Verwenden Sie in konfigurierten Szenarien Statusmethoden wie get_status, um Informationen zur Ausführung abzurufen.

In beiden Fällen können Sie Abfragemethoden wie get_metrics verwenden, um ggf. die aktuellen Werte von Testmessungen und Metriken abzurufen.

Methoden

archive

Archivieren eines Experiments.

delete

Löschen eines Experiments im Arbeitsbereich.

from_directory

(Veraltet) Laden Sie ein Experiment aus dem angegebenen Pfad.

get_docs_url

URL zur Dokumentation dieser Klasse.

get_runs

Gibt einen Generator der Ausführungen für dieses Experiment in umgekehrter chronologischer Reihenfolge zurück.

list

Dient zum Zurückgeben der Liste der Experimente im Arbeitsbereich.

reactivate

Reaktivieren eines archivierten Experiments.

refresh

Gibt die neueste Version des Experiments aus der Cloud zurück.

remove_tags

Löschen Sie die angegebenen Tags aus dem Experiment.

set_tags

Fügen Sie dem Experiment eine Reihe von Tags hinzu, oder ändern Sie sie. Tags, die nicht im Wörterbuch übergeben werden, bleiben unverändert.

start_logging

Starten Sie eine interaktive Protokollierungssitzung, und erstellen Sie eine interaktive Ausführung im angegebenen Experiment.

submit

Übermitteln Sie ein Experiment, und geben Sie die aktive erstellte Ausführung zurück.

tag

Kennzeichnen Sie das Experiment mit einem Zeichenfolgenschlüssel und einem optionalen Zeichenfolgenwert.

archive

Archivieren eines Experiments.

archive()

Hinweise

Nach der Archivierung wird das Experiment nicht standardmäßig aufgeführt. Beim Versuch, in ein archiviertes Experiment zu schreiben, wird ein neues aktives Experiment mit dem gleichen Namen erstellt. Ein archiviertes Experiment kann durch Aufrufen von reactivate wiederhergestellt werden, solange es kein weiteres aktives Experiment mit dem gleichen Namen gibt.

delete

Löschen eines Experiments im Arbeitsbereich.

static delete(workspace, experiment_id)

Parameter

workspace
Workspace
Erforderlich

Der Arbeitsbereich, zu dem das Experiment gehört.

experiment_id
Erforderlich

Die Experiment-ID des zu löschenden Experiments.

from_directory

(Veraltet) Laden Sie ein Experiment aus dem angegebenen Pfad.

static from_directory(path, auth=None)

Parameter

path
str
Erforderlich

Das Verzeichnis, das die Konfigurationsdateien des Experiments enthält.

auth
ServicePrincipalAuthentication oder InteractiveLoginAuthentication
Standardwert: None

Das Authentifizierungsobjekt. Bei None werden die Standard-Azure CLI Anmeldeinformationen verwendet, oder die API fordert zur Eingabe von Anmeldeinformationen auf.

Gibt zurück

Gibt das Experiment zurück

Rückgabetyp

get_docs_url

URL zur Dokumentation dieser Klasse.

get_docs_url()

Gibt zurück

url

Rückgabetyp

str

get_runs

Gibt einen Generator der Ausführungen für dieses Experiment in umgekehrter chronologischer Reihenfolge zurück.

get_runs(type=None, tags=None, properties=None, include_children=False)

Parameter

type
string
Standardwert: None

Filtert den zurückgegeben Generator von Ausführungen nach dem angegebenen Typ. Informationen zum Erstellen von Ausführungstypen finden Sie unter add_type_provider.

tags
string oder dict
Standardwert: None

Filtert Ausführungen nach "tag" oder {"tag": "value"}.

properties
string oder dict
Standardwert: None

Filtern von Ausführungen nach „property“ oder „{"property": "value"}“.

include_children
bool
Standardwert: False

Standardmäßig werden nur Ausführungen der obersten Ebene abgerufen. Legen Sie auf "true" fest, um alle Ausführungen aufzulisten.

Gibt zurück

Die Liste der Ausführungen, die mit den angegebenen Filtern übereinstimmen.

Rückgabetyp

list

Dient zum Zurückgeben der Liste der Experimente im Arbeitsbereich.

static list(workspace, experiment_name=None, view_type='ActiveOnly', tags=None)

Parameter

workspace
Workspace
Erforderlich

Der Arbeitsbereich, aus dem die Experimente aufgeführt werden sollen.

experiment_name
str
Standardwert: None

Optionaler Name zum Filtern von Experimenten.

view_type
ViewType
Standardwert: ActiveOnly

Optionaler Enumerierungswert zum Filtern oder Hinzufügen archivierter Experimente.

tags
Standardwert: None

Optionaler Tagschlüssel oder Wörterbuch von Tagschlüssel-Wert-Paaren zum Filtern von Experimenten.

Gibt zurück

Eine Liste von Experimentobjekten.

Rückgabetyp

reactivate

Reaktivieren eines archivierten Experiments.

reactivate(new_name=None)

Parameter

new_name
str
Erforderlich

Wird nicht mehr unterstützt.

Hinweise

Ein archiviertes Experiment kann nur dann reaktiviert werden, wenn es kein weiteres aktives Experiment mit dem gleichen Namen gibt.

refresh

Gibt die neueste Version des Experiments aus der Cloud zurück.

refresh()

remove_tags

Löschen Sie die angegebenen Tags aus dem Experiment.

remove_tags(tags)

Parameter

tags
[str]
Erforderlich

Die Tagschlüssel, die entfernt werden

set_tags

Fügen Sie dem Experiment eine Reihe von Tags hinzu, oder ändern Sie sie. Tags, die nicht im Wörterbuch übergeben werden, bleiben unverändert.

set_tags(tags)

Parameter

tags
dict[str]
Erforderlich

Die im Experimentobjekt gespeicherten Tags

start_logging

Starten Sie eine interaktive Protokollierungssitzung, und erstellen Sie eine interaktive Ausführung im angegebenen Experiment.

start_logging(*args, **kwargs)

Parameter

experiment
Experiment
Erforderlich

Das Experiment.

outputs
str
Erforderlich

Optionales Ausgabeverzeichnis zum Nachverfolgen. Wenn keine Ausgaben ausgegeben werden, übergeben Sie False.

snapshot_directory
str
Erforderlich

Optionales Verzeichnis zum Erstellen einer Momentaufnahme. Bei „None“ wird keine Momentaufnahme erstellt.

args
list
Erforderlich
kwargs
dict
Erforderlich

Gibt zurück

Gibt eine gestartete Ausführung zurück.

Rückgabetyp

Run

Hinweise

start_logging erstellt eine interaktive Ausführung für die Verwendung in Szenarien wie z. B. Jupyter Notebooks. Alle Metriken, die während der Sitzung protokolliert werden, werden der Ausführungsaufzeichnung im Experiment hinzugefügt. Wenn ein Ausgabeverzeichnis angegeben wird, wird der Inhalt dieses Verzeichnisses nach Abschluss der Ausführung als Ausführungsartefakte hochgeladen.


   experiment = Experiment(workspace, "My Experiment")
   run = experiment.start_logging(outputs=None, snapshot_directory=".", display_name="My Run")
   ...
   run.log_metric("Accuracy", accuracy)
   run.complete()

Hinweis

run_id wird automatisch für jede Ausführung generiert und ist innerhalb des Experiments eindeutig.

submit

Übermitteln Sie ein Experiment, und geben Sie die aktive erstellte Ausführung zurück.

submit(config, tags=None, **kwargs)

Parameter

config
object
Erforderlich

Die zu übermittelnde Konfiguration.

tags
dict
Standardwert: None

Tags, die der übermittelten Ausführung hinzugefügt werden sollen, {"tag": "value"}.

kwargs
dict
Erforderlich

Zusätzliche Parameter, die in der Submit-Funktion für Konfigurationen verwendet werden.

Gibt zurück

Eine Ausführung.

Rückgabetyp

Run

Hinweise

„Submit“ ist ein asynchroner Aufruf an die Azure Machine Learning-Plattform, mit dem ein Test auf lokaler oder Remotehardware ausgeführt wird. Abhängig von der Konfiguration bereitet „Submit“ automatisch Ihre Ausführungsumgebungen vor, führt Ihren Code aus und erfasst den Quellcode und die Ergebnisse im Ausführungsverlauf des Experiments.

Zum Übermitteln eines Experiments müssen Sie zunächst ein Configuration-Objekt erstellen, das beschreibt, wie das Experiment ausgeführt werden soll. Die Konfiguration richtet sich nach dem benötigten Testtyp.

Ein Beispiel für das Übermitteln eines Experiments von Ihrem lokalen Computer sieht wie folgt aus:


   from azureml.core import ScriptRunConfig

   # run a trial from the train.py code in your current directory
   config = ScriptRunConfig(source_directory='.', script='train.py',
       run_config=RunConfiguration())
   run = experiment.submit(config)

   # get the url to view the progress of the experiment and then wait
   # until the trial is complete
   print(run.get_portal_url())
   run.wait_for_completion()

Weitere Informationen zum Konfigurieren einer Ausführung finden Sie in den Details des Konfigurationstyps.

  • ScriptRunConfig

  • azureml.train.automl.automlconfig.AutoMLConfig

  • azureml.pipeline.core.Pipeline

  • azureml.pipeline.core.PublishedPipeline

  • azureml.pipeline.core.PipelineEndpoint

Hinweis

Wenn Sie eine Trainingsausführung übermitteln, wird eine Momentaufnahme des Verzeichnisses, das Ihre Trainingsskripts enthält, erstellt und an das Computeziel gesendet. Sie wird auch als Teil des Experiments in Ihrem Arbeitsbereich gespeichert. Wenn Sie Dateien ändern und die Ausführung erneut übermitteln, werden nur die geänderten Dateien hochgeladen.

Wenn Sie verhindern möchten, dass Dateien von der Momentaufnahme erfasst werden, müssen Sie eine .gitignore- oder .amlignore-Datei im Verzeichnis erstellen und diesem die Dateien hinzufügen. Für die .amlignore-Datei werden die gleiche Syntax und die gleichen Muster wie für die .gitignore-Datei verwendet. Wenn beide Dateien vorhanden sind, hat die .amlignore-Datei Vorrang.

Weitere Informationen finden Sie unter Momentaufnahmen.

tag

Kennzeichnen Sie das Experiment mit einem Zeichenfolgenschlüssel und einem optionalen Zeichenfolgenwert.

tag(key, value=None)

Parameter

key
str
Erforderlich

Der Tagschlüssel.

value
str
Erforderlich

Ein optionaler Wert für das Tag.

Hinweise

Tags in einem Experiment werden in einem Wörterbuch mit Zeichenfolgenschlüsseln und Zeichenfolgenwerten gespeichert. Tags können festgelegt, aktualisiert und gelöscht werden. Tags sind benutzerorientierte Und enthalten im Allgemeinen Bedeutungsinformationen für die Benutzer des Experiments.


   experiment.tag('')
   experiment.tag('DeploymentCandidate')
   experiment.tag('modifiedBy', 'Master CI')
   experiment.tag('modifiedBy', 'release pipeline') # Careful, tags are mutable

Attribute

archived_time

Gibt die archivierte Zeit für das Experiment zurück. Der Wert sollte für ein aktives Experiment None sein.

Gibt zurück

Die archivierte Zeit des Experiments.

Rückgabetyp

str

id

Geben Sie die ID des Experiments zurück.

Gibt zurück

Die ID des Experiments.

Rückgabetyp

str

name

Geben Sie den Namen des Experiments zurück.

Gibt zurück

Der Name des Experiments.

Rückgabetyp

str

tags

Gibt den veränderlichen Satz von Tags im Experiment zurück.

Gibt zurück

Die Tags in einem Experiment.

Rückgabetyp

workspace

Gibt den Arbeitsbereich zurück, der das Experiment enthält.

Gibt zurück

Gibt das Arbeitsbereichsobjekt zurück.

Rückgabetyp

workspace_object

(Veraltet) Gibt den Arbeitsbereich zurück, der das Experiment enthält.

Verwenden Sie das Attribut workspace.

Gibt zurück

Das Workspace-Objekt.

Rückgabetyp