Freigeben über


AutoMLRun Klasse

Stellt eine Ausführung des automatisierten maschinellen Lernens in Azure Machine Learning dar.

Mit der AutoMLRun-Klasse können Sie eine Ausführung verwalten, den Ausführungsstatus überprüfen und Ausführungsdetails abrufen, nachdem eine AutoML-Ausführung übermittelt wurde. Weitere Informationen zum Arbeiten mit Experimentausführungen finden Sie in der Run-Klasse.

Initialisieren sie eine AutoML-Ausführung.

Vererbung
AutoMLRun

Konstruktor

AutoMLRun(experiment, run_id, **kwargs)

Parameter

Name Beschreibung
experiment
Erforderlich

Das Experiment, das der Ausführung zugeordnet ist

run_id
Erforderlich
str

Die ID der Ausführung.

experiment
Erforderlich

Das Experiment, das der Ausführung zugeordnet ist

run_id
Erforderlich
str

Die ID der Ausführung.

Hinweise

Ein AutoMLRun-Objekt wird zurückgegeben, wenn Sie die submit-Methode eines Experiments verwenden.

Verwenden Sie den folgenden Code, um eine bereits gestartete Ausführung abzurufen:


   from azureml.train.automl.run import AutoMLRun
   ws = Workspace.from_config()
   experiment = ws.experiments['my-experiment-name']
   automl_run = AutoMLRun(experiment, run_id = 'AutoML_9fe201fe-89fd-41cc-905f-2f41a5a98883')

Methoden

cancel

Brechen Sie eine AutoML-Ausführung ab.

Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich abgebrochen wurde.

cancel_iteration

Brechen Sie eine bestimmte untergeordnete Ausführung ab.

complete

Schließen Sie eine AutoML-Ausführung ab.

continue_experiment

Setzen Sie ein vorhandenes AutoML-Experiment fort.

fail

Lassen Sie eine AutoML-Ausführung fehlschlagen.

Legen Sie optional die Fehlereigenschaft der Ausführung mit einer Meldung oder Ausnahme fest, die an error_details übergeben wird.

get_best_child

Geben Sie die untergeordnete Ausführung mit der besten Bewertung für diese AutoML-Ausführung zurück.

get_guardrails

Ausgeben und Zurückgeben detaillierter Ergebnisse der Ausführung der Guardrail-Verifizierung.

get_output

Geben Sie die Ausführung mit der entsprechenden besten Pipeline zurück, die bereits getestet wurde.

get_output gibt die beste Pipeline gemäß der primären Metrik zurück, wenn keine Eingabeparameter bereitgestellt werden. Alternativ können Sie entweder den Parameter iteration oder metric verwenden, um eine bestimmte Iteration oder die beste Ausführung pro bereitgestellter Metrik abzurufen.

get_run_sdk_dependencies

Rufen Sie die SDK-Ausführungsabhängigkeiten für eine bestimmte Ausführung ab.

pause

Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich pausiert wurde.

Diese Methode ist nicht implementiert.

register_model

Registrieren Sie das Modell beim AzureML ACI-Dienst.

resume

Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich fortgesetzt wurde.

Diese Methode ist nicht implementiert.

retry

Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich erneut versucht wurde.

Diese Methode ist nicht implementiert.

summary

Rufen Sie eine Tabelle ab, die eine Zusammenfassung der versuchten Algorithmen und deren Scores enthält.

wait_for_completion

Auf den Abschluss dieser Ausführung warten.

Gibt das Statusobjekt nach dem Wartezustand zurück.

cancel

Brechen Sie eine AutoML-Ausführung ab.

Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich abgebrochen wurde.

cancel()

Gibt zurück

Typ Beschreibung

Keine

cancel_iteration

Brechen Sie eine bestimmte untergeordnete Ausführung ab.

cancel_iteration(iteration)

Parameter

Name Beschreibung
iteration
Erforderlich
int

Die abzubrechende Iteration.

Gibt zurück

Typ Beschreibung

Keine

complete

Schließen Sie eine AutoML-Ausführung ab.

complete(**kwargs)

Gibt zurück

Typ Beschreibung

Keine

continue_experiment

Setzen Sie ein vorhandenes AutoML-Experiment fort.

continue_experiment(X=None, y=None, sample_weight=None, X_valid=None, y_valid=None, sample_weight_valid=None, data=None, label=None, columns=None, cv_splits_indices=None, spark_context=None, experiment_timeout_hours=None, experiment_exit_score=None, iterations=None, show_output=False, training_data=None, validation_data=None, **kwargs)

Parameter

Name Beschreibung
X
DataFrame oder ndarray oder <xref:azureml.dataprep.Dataflow>

Trainingsfeatures.

Standardwert: None
y
DataFrame oder ndarray oder <xref:azureml.dataprep.Dataflow>

Trainingsbezeichnungen.

Standardwert: None
sample_weight
DataFrame oder ndarray oder <xref:azureml.dataprep.Dataflow>

Beispielgewichtungen für Trainingsdaten.

Standardwert: None
X_valid
DataFrame oder ndarray oder <xref:azureml.dataprep.Dataflow>

Validierungsfeatures.

Standardwert: None
y_valid
DataFrame oder ndarray oder <xref:azureml.dataprep.Dataflow>

Validierungsbezeichnungen.

Standardwert: None
sample_weight_valid
DataFrame oder ndarray oder <xref:azureml.dataprep.Dataflow>

Stichprobengewichtungen für Validierungssets.

Standardwert: None
data

Trainingsfeatures und Bezeichnung.

Standardwert: None
label
str

Bezeichnungsspalte in Daten.

Standardwert: None
columns

Eine Liste der zulässigen Spalten in den Daten, die als Features verwendet werden sollen.

Standardwert: None
cv_splits_indices

Indizes, die angeben, wo Trainingsdaten für die Kreuzvalidierung aufgeteilt werden sollen. Jede Zeile ist ein separater Kreuzfold. Stellen Sie innerhalb jedes Kreuzfolds zwei Arrays bereit: das erste mit den Indizes für Stichproben, die für Trainingsdaten verwendet werden sollen, und das zweite mit den Indizes, die für Validierungsdaten verwendet werden sollen. Also [[t1, v1], [t2, v2], ...], wobei „t1“ die Trainingsindizes für den ersten Kreuzfold und „v1“ die Validierungsindizes für den ersten Kreuzfold sind.

Standardwert: None
spark_context
<xref:SparkContext>

Spark-Kontext – nur anwendbar bei Verwendung in einer Azure Databricks-/Spark-Umgebung.

Standardwert: None
experiment_timeout_hours

Gibt an, für wie viele zusätzliche Stunden dieses Experiment ausgeführt werden soll.

Standardwert: None
experiment_exit_score
int

Gibt (wenn vorhanden) an, dass das Experiment beendet wird, wenn dieser Wert erreicht wird.

Standardwert: None
iterations
int

Gibt an, wie viele zusätzliche Iterationen für dieses Experiment ausgeführt werden sollen.

Standardwert: None
show_output

Flag, das angibt, ob die Ausgabe in der Konsole ausgegeben werden soll.

Standardwert: False
training_data
<xref:azureml.dataprep.Dataflow> oder DataFrame

Eingabetrainingsdaten.

Standardwert: None
validation_data
<xref:azureml.dataprep.Dataflow> oder DataFrame

Validierungsdaten.

Standardwert: None

Gibt zurück

Typ Beschreibung

Die übergeordnete AutoML-Ausführung.

Ausnahmen

Typ Beschreibung

fail

Lassen Sie eine AutoML-Ausführung fehlschlagen.

Legen Sie optional die Fehlereigenschaft der Ausführung mit einer Meldung oder Ausnahme fest, die an error_details übergeben wird.

fail(error_details=None, error_code=None, _set_status=True, **kwargs)

Parameter

Name Beschreibung
error_details

Optionale Details des Fehlers.

Standardwert: None
error_code
str

Optionaler Fehlercode des Fehlers für die Fehlerklassifizierung.

Standardwert: None
_set_status

Gibt an, ob das Statusereignis zur Nachverfolgung gesendet werden soll.

Standardwert: True

get_best_child

Geben Sie die untergeordnete Ausführung mit der besten Bewertung für diese AutoML-Ausführung zurück.

get_best_child(metric: str | None = None, onnx_compatible: bool = False, **kwargs: Any) -> Run

Parameter

Name Beschreibung
metric
str

Die Metrik, die beim Auswählen der besten Ausführung verwendet werden soll. Standardmäßig wird die primäre Metrik verwendet.

Standardwert: None
onnx_compatible

Gibt an, ob nur Ausführungen zurückgegeben werden sollen, die ONNX-Modelle generiert haben.

Standardwert: False
kwargs
Erforderlich

Gibt zurück

Typ Beschreibung

Untergeordnete AutoML-Ausführung.

get_guardrails

Ausgeben und Zurückgeben detaillierter Ergebnisse der Ausführung der Guardrail-Verifizierung.

get_guardrails(to_console: bool = True) -> Dict[str, Any]

Parameter

Name Beschreibung
to_console

Gibt an, ob die Verifizierungsergebnisse in der Konsole ausgegeben werden sollen.

Standardwert: True

Gibt zurück

Typ Beschreibung

Ein Wörterbuch mit Verifizierungsergebnissen.

Ausnahmen

Typ Beschreibung

get_output

Geben Sie die Ausführung mit der entsprechenden besten Pipeline zurück, die bereits getestet wurde.

get_output gibt die beste Pipeline gemäß der primären Metrik zurück, wenn keine Eingabeparameter bereitgestellt werden. Alternativ können Sie entweder den Parameter iteration oder metric verwenden, um eine bestimmte Iteration oder die beste Ausführung pro bereitgestellter Metrik abzurufen.

get_output(iteration: int | None = None, metric: str | None = None, return_onnx_model: bool = False, return_split_onnx_model: SplitOnnxModelName | None = None, **kwargs: Any) -> Tuple[Run, Any]

Parameter

Name Beschreibung
iteration
int

Die Iterationsnummer der entsprechenden Ausführung und des angepassten Modells, das zurückgegeben werden soll.

Standardwert: None
metric
str

Die Metrik, die beim Auswählen der besten Ausführung und des besten angepassten Modells verwendet werden soll.

Standardwert: None
return_onnx_model

Diese Methode gibt das konvertierte ONNX-Modell zurück, wenn der Parameter enable_onnx_compatible_models im AutoMLConfig-Objekt auf „True“ festgelegt wurde.

Standardwert: False
return_split_onnx_model

Der Typ des geteilten ONNX-Modells, das zurückgegeben werden soll

Standardwert: None

Gibt zurück

Typ Beschreibung
Run, <xref:Model>

Die Ausführung, das entsprechende angepasste Modell.

Ausnahmen

Typ Beschreibung

Hinweise

Wenn Sie die verwendeten Präprozessoren und Algorithmen (Schätzer) untersuchen möchten, können Sie dies mithilfe von Model.steps tun, ähnlich wie sklearn.pipeline.Pipeline.steps. Der folgende Code zeigt beispielsweise, wie der Schätzer abgerufen wird.


   best_run, model = parent_run.get_output()
   estimator = model.steps[-1]

get_run_sdk_dependencies

Rufen Sie die SDK-Ausführungsabhängigkeiten für eine bestimmte Ausführung ab.

get_run_sdk_dependencies(iteration=None, check_versions=True, **kwargs)

Parameter

Name Beschreibung
iteration
int

Die Iterationsnummer der angepassten Ausführung, die abgerufen werden soll. Bei „None“ wird die übergeordnete Umgebung abgerufen.

Standardwert: None
check_versions

Bei „True“ werden die Versionen mit der aktuellen Umgebung überprüft. Bei „False“ überspringen.

Standardwert: True

Gibt zurück

Typ Beschreibung

Das Wörterbuch der aus RunHistory abgerufenen Abhängigkeiten.

Ausnahmen

Typ Beschreibung

pause

Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich pausiert wurde.

Diese Methode ist nicht implementiert.

pause()

Ausnahmen

Typ Beschreibung

register_model

Registrieren Sie das Modell beim AzureML ACI-Dienst.

register_model(model_name=None, description=None, tags=None, iteration=None, metric=None)

Parameter

Name Beschreibung
model_name
str

Der Name des bereitgestellten Modells.

Standardwert: None
description
str

Die Beschreibung des bereitgestellten Modells.

Standardwert: None
tags

Tags für das bereitgestellte Modell.

Standardwert: None
iteration
int

Außerkraftsetzung, durch die ein anderes Modell bereitgestellt wird. Stellt das Modell einer bestimmten Iteration bereit.

Standardwert: None
metric
str

Außerkraftsetzung, durch die ein anderes Modell bereitgestellt wird. Stellt das beste Modell für eine andere Metrik bereit.

Standardwert: None

Gibt zurück

Typ Beschreibung
<xref:Model>

Das registrierte Modellobjekt.

resume

Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich fortgesetzt wurde.

Diese Methode ist nicht implementiert.

resume()

Ausnahmen

Typ Beschreibung
NotImplementedError:

retry

Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich erneut versucht wurde.

Diese Methode ist nicht implementiert.

retry()

Ausnahmen

Typ Beschreibung

summary

Rufen Sie eine Tabelle ab, die eine Zusammenfassung der versuchten Algorithmen und deren Scores enthält.

summary()

Gibt zurück

Typ Beschreibung

Pandas-DataFrame mit AutoML-Modellstatistiken.

wait_for_completion

Auf den Abschluss dieser Ausführung warten.

Gibt das Statusobjekt nach dem Wartezustand zurück.

wait_for_completion(show_output=False, wait_post_processing=False)

Parameter

Name Beschreibung
show_output

Gibt an, ob die Ausgabe der Ausführung in sys.stdout angezeigt werden soll.

Standardwert: False
wait_post_processing

Gibt an, ob nach Abschluss der Ausführung auf den Abschluss der Nachverarbeitung gewartet werden soll.

Standardwert: False

Gibt zurück

Typ Beschreibung

Das Statusobjekt.

Ausnahmen

Typ Beschreibung

Attribute

run_id

Geben Sie die Ausführungs-ID der aktuellen Ausführung zurück.

Gibt zurück

Typ Beschreibung
str

Die Ausführungs-ID der aktuellen Ausführung.