Experiment Klasse
Stellt den Haupteinstiegspunkt zum Erstellen und Arbeiten mit Experimenten in Azure Machine Learning dar.
Ein Experiment ist ein Container mit Tests, die aus mehreren Modellausführungen bestehen.
Experimentkonstruktor.
- Vererbung
-
azureml._logging.chained_identity.ChainedIdentityExperimentazureml.core._portal.HasExperimentPortalExperiment
Konstruktor
Experiment(workspace, name, _skip_name_validation=False, _id=None, _archived_time=None, _create_in_cloud=True, _experiment_dto=None, **kwargs)
Parameter
Name | Beschreibung |
---|---|
workspace
Erforderlich
|
Das Arbeitsbereichsobjekt, das das Experiment enthält. |
name
Erforderlich
|
Den Experimentnamen. |
kwargs
Erforderlich
|
Ein Wörterbuch mit Schlüsselwortargumenten. |
workspace
Erforderlich
|
Das Arbeitsbereichsobjekt, das das Experiment enthält. |
name
Erforderlich
|
Den Experimentnamen. |
kwargs
Erforderlich
|
Ein Wörterbuch mit Schlüsselwortargumenten. |
_skip_name_validation
|
Standardwert: False
|
_id
|
Standardwert: None
|
_archived_time
|
Standardwert: None
|
_create_in_cloud
|
Standardwert: True
|
_experiment_dto
|
Standardwert: None
|
Hinweise
Ein Azure Machine Learning-Experiment stellt die Sammlung von Testversionen dar, die verwendet werden, um die Hypothese eines Benutzers zu überprüfen.
In Azure Machine Learning wird ein Experiment durch die Experiment-Klasse und eine Testversion durch die Run-Klasse dargestellt.
Um ein Experiment aus einem Arbeitsbereich abzurufen oder zu erstellen, fordern Sie das Experiment mithilfe des Experimentnamens an. Der Experimentname muss 3–36 Zeichen umfassen, mit einem Buchstaben oder einer Zahl beginnen und darf nur Buchstaben, Ziffern, Unterstriche und Bindestriche enthalten.
experiment = Experiment(workspace, "MyExperiment")
Wenn das Experiment nicht im Arbeitsbereich gefunden wird, wird ein neues Experiment erstellt.
Experimenttests können auf zwei Arten ausgeführt werden. Wenn Sie interaktiv in einem Jupyter Notebook experimentieren, verwenden Sie start_logging. Wenn Sie ein Experiment aus dem Quellcode oder einen anderen konfigurierten Test übermitteln, verwenden Sie submit.
Bei beiden Mechanismen wird ein Run-Objekt erstellt. Verwenden Sie in interaktiven Szenarien Protokollierungsmethoden wie log, um dem Testdatensatz Messungen und Metriken hinzuzufügen. Verwenden Sie in konfigurierten Szenarien Statusmethoden wie get_status, um Informationen zur Ausführung abzurufen.
In beiden Fällen können Sie Abfragemethoden wie get_metrics verwenden, um ggf. die aktuellen Werte von Testmessungen und Metriken abzurufen.
Methoden
archive |
Archivieren eines Experiments. |
delete |
Löschen eines Experiments im Arbeitsbereich. |
from_directory |
(Veraltet) Laden Sie ein Experiment aus dem angegebenen Pfad. |
get_docs_url |
URL zur Dokumentation dieser Klasse. |
get_runs |
Gibt einen Generator der Ausführungen für dieses Experiment in umgekehrter chronologischer Reihenfolge zurück. |
list |
Dient zum Zurückgeben der Liste der Experimente im Arbeitsbereich. |
reactivate |
Reaktivieren eines archivierten Experiments. |
refresh |
Gibt die neueste Version des Experiments aus der Cloud zurück. |
remove_tags |
Löschen Sie die angegebenen Tags aus dem Experiment. |
set_tags |
Fügen Sie dem Experiment eine Reihe von Tags hinzu, oder ändern Sie sie. Tags, die nicht im Wörterbuch übergeben werden, bleiben unverändert. |
start_logging |
Starten Sie eine interaktive Protokollierungssitzung, und erstellen Sie eine interaktive Ausführung im angegebenen Experiment. |
submit |
Übermitteln Sie ein Experiment, und geben Sie die aktive erstellte Ausführung zurück. |
tag |
Kennzeichnen Sie das Experiment mit einem Zeichenfolgenschlüssel und einem optionalen Zeichenfolgenwert. |
archive
Archivieren eines Experiments.
archive()
Hinweise
Nach der Archivierung wird das Experiment nicht standardmäßig aufgeführt. Beim Versuch, in ein archiviertes Experiment zu schreiben, wird ein neues aktives Experiment mit dem gleichen Namen erstellt. Ein archiviertes Experiment kann durch Aufrufen von reactivate wiederhergestellt werden, solange es kein weiteres aktives Experiment mit dem gleichen Namen gibt.
delete
Löschen eines Experiments im Arbeitsbereich.
static delete(workspace, experiment_id)
Parameter
Name | Beschreibung |
---|---|
workspace
Erforderlich
|
Der Arbeitsbereich, zu dem das Experiment gehört. |
experiment_id
Erforderlich
|
Die Experiment-ID des zu löschenden Experiments. |
from_directory
(Veraltet) Laden Sie ein Experiment aus dem angegebenen Pfad.
static from_directory(path, auth=None)
Parameter
Name | Beschreibung |
---|---|
path
Erforderlich
|
Das Verzeichnis, das die Konfigurationsdateien des Experiments enthält. |
auth
|
Das Authentifizierungsobjekt. Bei None werden die Standard-Azure CLI Anmeldeinformationen verwendet, oder die API fordert zur Eingabe von Anmeldeinformationen auf. Standardwert: None
|
Gibt zurück
Typ | Beschreibung |
---|---|
Gibt das Experiment zurück |
get_docs_url
get_runs
Gibt einen Generator der Ausführungen für dieses Experiment in umgekehrter chronologischer Reihenfolge zurück.
get_runs(type=None, tags=None, properties=None, include_children=False)
Parameter
Name | Beschreibung |
---|---|
type
|
Filtert den zurückgegeben Generator von Ausführungen nach dem angegebenen Typ. Informationen zum Erstellen von Ausführungstypen finden Sie unter add_type_provider. Standardwert: None
|
tags
|
Filtert Ausführungen nach "tag" oder {"tag": "value"}. Standardwert: None
|
properties
|
Filtern von Ausführungen nach „property“ oder „{"property": "value"}“. Standardwert: None
|
include_children
|
Standardmäßig werden nur Ausführungen der obersten Ebene abgerufen. Legen Sie auf "true" fest, um alle Ausführungen aufzulisten. Standardwert: False
|
Gibt zurück
Typ | Beschreibung |
---|---|
Die Liste der Ausführungen, die mit den angegebenen Filtern übereinstimmen. |
list
Dient zum Zurückgeben der Liste der Experimente im Arbeitsbereich.
static list(workspace, experiment_name=None, view_type='ActiveOnly', tags=None)
Parameter
Name | Beschreibung |
---|---|
workspace
Erforderlich
|
Der Arbeitsbereich, aus dem die Experimente aufgeführt werden sollen. |
experiment_name
|
Optionaler Name zum Filtern von Experimenten. Standardwert: None
|
view_type
|
Optionaler Enumerierungswert zum Filtern oder Hinzufügen archivierter Experimente. Standardwert: ActiveOnly
|
tags
|
Optionaler Tagschlüssel oder Wörterbuch von Tagschlüssel-Wert-Paaren zum Filtern von Experimenten. Standardwert: None
|
Gibt zurück
Typ | Beschreibung |
---|---|
Eine Liste von Experimentobjekten. |
reactivate
Reaktivieren eines archivierten Experiments.
reactivate(new_name=None)
Parameter
Name | Beschreibung |
---|---|
new_name
Erforderlich
|
Wird nicht mehr unterstützt. |
Hinweise
Ein archiviertes Experiment kann nur dann reaktiviert werden, wenn es kein weiteres aktives Experiment mit dem gleichen Namen gibt.
refresh
Gibt die neueste Version des Experiments aus der Cloud zurück.
refresh()
remove_tags
Löschen Sie die angegebenen Tags aus dem Experiment.
remove_tags(tags)
Parameter
Name | Beschreibung |
---|---|
tags
Erforderlich
|
[str]
Die Tagschlüssel, die entfernt werden |
set_tags
Fügen Sie dem Experiment eine Reihe von Tags hinzu, oder ändern Sie sie. Tags, die nicht im Wörterbuch übergeben werden, bleiben unverändert.
set_tags(tags)
Parameter
Name | Beschreibung |
---|---|
tags
Erforderlich
|
Die im Experimentobjekt gespeicherten Tags |
start_logging
Starten Sie eine interaktive Protokollierungssitzung, und erstellen Sie eine interaktive Ausführung im angegebenen Experiment.
start_logging(*args, **kwargs)
Parameter
Name | Beschreibung |
---|---|
experiment
Erforderlich
|
Das Experiment. |
outputs
Erforderlich
|
Optionales Ausgabeverzeichnis zum Nachverfolgen. Wenn keine Ausgaben ausgegeben werden, übergeben Sie False. |
snapshot_directory
Erforderlich
|
Optionales Verzeichnis zum Erstellen einer Momentaufnahme. Bei „None“ wird keine Momentaufnahme erstellt. |
args
Erforderlich
|
|
kwargs
Erforderlich
|
|
Gibt zurück
Typ | Beschreibung |
---|---|
Gibt eine gestartete Ausführung zurück. |
Hinweise
start_logging erstellt eine interaktive Ausführung für die Verwendung in Szenarien wie z. B. Jupyter Notebooks. Alle Metriken, die während der Sitzung protokolliert werden, werden der Ausführungsaufzeichnung im Experiment hinzugefügt. Wenn ein Ausgabeverzeichnis angegeben wird, wird der Inhalt dieses Verzeichnisses nach Abschluss der Ausführung als Ausführungsartefakte hochgeladen.
experiment = Experiment(workspace, "My Experiment")
run = experiment.start_logging(outputs=None, snapshot_directory=".", display_name="My Run")
...
run.log_metric("Accuracy", accuracy)
run.complete()
Hinweis
run_id wird automatisch für jede Ausführung generiert und ist innerhalb des Experiments eindeutig.
submit
Übermitteln Sie ein Experiment, und geben Sie die aktive erstellte Ausführung zurück.
submit(config, tags=None, **kwargs)
Parameter
Name | Beschreibung |
---|---|
config
Erforderlich
|
Die zu übermittelnde Konfiguration. |
tags
|
Tags, die der übermittelten Ausführung hinzugefügt werden sollen, {"tag": "value"}. Standardwert: None
|
kwargs
Erforderlich
|
Zusätzliche Parameter, die in der Submit-Funktion für Konfigurationen verwendet werden. |
Gibt zurück
Typ | Beschreibung |
---|---|
Eine Ausführung. |
Hinweise
„Submit“ ist ein asynchroner Aufruf an die Azure Machine Learning-Plattform, mit dem ein Test auf lokaler oder Remotehardware ausgeführt wird. Abhängig von der Konfiguration bereitet „Submit“ automatisch Ihre Ausführungsumgebungen vor, führt Ihren Code aus und erfasst den Quellcode und die Ergebnisse im Ausführungsverlauf des Experiments.
Zum Übermitteln eines Experiments müssen Sie zunächst ein Configuration-Objekt erstellen, das beschreibt, wie das Experiment ausgeführt werden soll. Die Konfiguration richtet sich nach dem benötigten Testtyp.
Ein Beispiel für das Übermitteln eines Experiments von Ihrem lokalen Computer sieht wie folgt aus:
from azureml.core import ScriptRunConfig
# run a trial from the train.py code in your current directory
config = ScriptRunConfig(source_directory='.', script='train.py',
run_config=RunConfiguration())
run = experiment.submit(config)
# get the url to view the progress of the experiment and then wait
# until the trial is complete
print(run.get_portal_url())
run.wait_for_completion()
Weitere Informationen zum Konfigurieren einer Ausführung finden Sie in den Details des Konfigurationstyps.
azureml.train.automl.automlconfig.AutoMLConfig
azureml.pipeline.core.Pipeline
azureml.pipeline.core.PublishedPipeline
azureml.pipeline.core.PipelineEndpoint
Hinweis
Wenn Sie eine Trainingsausführung übermitteln, wird eine Momentaufnahme des Verzeichnisses, das Ihre Trainingsskripts enthält, erstellt und an das Computeziel gesendet. Sie wird auch als Teil des Experiments in Ihrem Arbeitsbereich gespeichert. Wenn Sie Dateien ändern und die Ausführung erneut übermitteln, werden nur die geänderten Dateien hochgeladen.
Wenn Sie verhindern möchten, dass Dateien von der Momentaufnahme erfasst werden, müssen Sie eine .gitignore- oder .amlignore-Datei im Verzeichnis erstellen und diesem die Dateien hinzufügen. Für die .amlignore-Datei werden die gleiche Syntax und die gleichen Muster wie für die .gitignore-Datei verwendet. Wenn beide Dateien vorhanden sind, hat die .amlignore-Datei Vorrang.
Weitere Informationen finden Sie unter Momentaufnahmen.
tag
Kennzeichnen Sie das Experiment mit einem Zeichenfolgenschlüssel und einem optionalen Zeichenfolgenwert.
tag(key, value=None)
Parameter
Name | Beschreibung |
---|---|
key
Erforderlich
|
Der Tagschlüssel. |
value
Erforderlich
|
Ein optionaler Wert für das Tag. |
Hinweise
Tags in einem Experiment werden in einem Wörterbuch mit Zeichenfolgenschlüsseln und Zeichenfolgenwerten gespeichert. Tags können festgelegt, aktualisiert und gelöscht werden. Tags sind benutzerorientierte Und enthalten im Allgemeinen Bedeutungsinformationen für die Benutzer des Experiments.
experiment.tag('')
experiment.tag('DeploymentCandidate')
experiment.tag('modifiedBy', 'Master CI')
experiment.tag('modifiedBy', 'release pipeline') # Careful, tags are mutable
Attribute
archived_time
Gibt die archivierte Zeit für das Experiment zurück. Der Wert sollte für ein aktives Experiment None sein.
Gibt zurück
Typ | Beschreibung |
---|---|
Die archivierte Zeit des Experiments. |
id
name
Geben Sie den Namen des Experiments zurück.
Gibt zurück
Typ | Beschreibung |
---|---|
Der Name des Experiments. |
tags
Gibt den veränderlichen Satz von Tags im Experiment zurück.
Gibt zurück
Typ | Beschreibung |
---|---|
Die Tags in einem Experiment. |
workspace
Gibt den Arbeitsbereich zurück, der das Experiment enthält.
Gibt zurück
Typ | Beschreibung |
---|---|
Gibt das Arbeitsbereichsobjekt zurück. |