AutoMLRun Klasse
Stellt eine Ausführung des automatisierten maschinellen Lernens in Azure Machine Learning dar.
Mit der AutoMLRun-Klasse können Sie eine Ausführung verwalten, den Ausführungsstatus überprüfen und Ausführungsdetails abrufen, nachdem eine AutoML-Ausführung übermittelt wurde. Weitere Informationen zum Arbeiten mit Experimentausführungen finden Sie in der Run-Klasse.
Initialisieren sie eine AutoML-Ausführung.
- Vererbung
-
AutoMLRun
Konstruktor
AutoMLRun(experiment, run_id, **kwargs)
Parameter
Hinweise
Ein AutoMLRun-Objekt wird zurückgegeben, wenn Sie die submit-Methode eines Experiments verwenden.
Verwenden Sie den folgenden Code, um eine bereits gestartete Ausführung abzurufen:
from azureml.train.automl.run import AutoMLRun
ws = Workspace.from_config()
experiment = ws.experiments['my-experiment-name']
automl_run = AutoMLRun(experiment, run_id = 'AutoML_9fe201fe-89fd-41cc-905f-2f41a5a98883')
Methoden
cancel |
Brechen Sie eine AutoML-Ausführung ab. Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich abgebrochen wurde. |
cancel_iteration |
Brechen Sie eine bestimmte untergeordnete Ausführung ab. |
complete |
Schließen Sie eine AutoML-Ausführung ab. |
continue_experiment |
Setzen Sie ein vorhandenes AutoML-Experiment fort. |
fail |
Lassen Sie eine AutoML-Ausführung fehlschlagen. Legen Sie optional die Fehlereigenschaft der Ausführung mit einer Meldung oder Ausnahme fest, die an |
get_best_child |
Geben Sie die untergeordnete Ausführung mit der besten Bewertung für diese AutoML-Ausführung zurück. |
get_guardrails |
Ausgeben und Zurückgeben detaillierter Ergebnisse der Ausführung der Guardrail-Verifizierung. |
get_output |
Geben Sie die Ausführung mit der entsprechenden besten Pipeline zurück, die bereits getestet wurde.
|
get_run_sdk_dependencies |
Rufen Sie die SDK-Ausführungsabhängigkeiten für eine bestimmte Ausführung ab. |
pause |
Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich pausiert wurde. Diese Methode ist nicht implementiert. |
register_model |
Registrieren Sie das Modell beim AzureML ACI-Dienst. |
resume |
Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich fortgesetzt wurde. Diese Methode ist nicht implementiert. |
retry |
Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich erneut versucht wurde. Diese Methode ist nicht implementiert. |
summary |
Rufen Sie eine Tabelle ab, die eine Zusammenfassung der versuchten Algorithmen und deren Scores enthält. |
wait_for_completion |
Auf den Abschluss dieser Ausführung warten. Gibt das Statusobjekt nach dem Wartezustand zurück. |
cancel
Brechen Sie eine AutoML-Ausführung ab.
Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich abgebrochen wurde.
cancel()
Gibt zurück
Keine
cancel_iteration
Brechen Sie eine bestimmte untergeordnete Ausführung ab.
cancel_iteration(iteration)
Parameter
Gibt zurück
Keine
complete
Schließen Sie eine AutoML-Ausführung ab.
complete(**kwargs)
Gibt zurück
Keine
continue_experiment
Setzen Sie ein vorhandenes AutoML-Experiment fort.
continue_experiment(X=None, y=None, sample_weight=None, X_valid=None, y_valid=None, sample_weight_valid=None, data=None, label=None, columns=None, cv_splits_indices=None, spark_context=None, experiment_timeout_hours=None, experiment_exit_score=None, iterations=None, show_output=False, training_data=None, validation_data=None, **kwargs)
Parameter
Trainingsfeatures.
Trainingsbezeichnungen.
Beispielgewichtungen für Trainingsdaten.
Validierungsfeatures.
Validierungsbezeichnungen.
Stichprobengewichtungen für Validierungssets.
Eine Liste der zulässigen Spalten in den Daten, die als Features verwendet werden sollen.
- cv_splits_indices
- ndarray
Indizes, die angeben, wo Trainingsdaten für die Kreuzvalidierung aufgeteilt werden sollen. Jede Zeile ist ein separater Kreuzfold. Stellen Sie innerhalb jedes Kreuzfolds zwei Arrays bereit: das erste mit den Indizes für Stichproben, die für Trainingsdaten verwendet werden sollen, und das zweite mit den Indizes, die für Validierungsdaten verwendet werden sollen. Also [[t1, v1], [t2, v2], ...], wobei „t1“ die Trainingsindizes für den ersten Kreuzfold und „v1“ die Validierungsindizes für den ersten Kreuzfold sind.
- spark_context
- <xref:SparkContext>
Spark-Kontext – nur anwendbar bei Verwendung in einer Azure Databricks-/Spark-Umgebung.
- experiment_timeout_hours
- float
Gibt an, für wie viele zusätzliche Stunden dieses Experiment ausgeführt werden soll.
- experiment_exit_score
- int
Gibt (wenn vorhanden) an, dass das Experiment beendet wird, wenn dieser Wert erreicht wird.
- iterations
- int
Gibt an, wie viele zusätzliche Iterationen für dieses Experiment ausgeführt werden sollen.
- show_output
- bool
Flag, das angibt, ob die Ausgabe in der Konsole ausgegeben werden soll.
- training_data
- <xref:azureml.dataprep.Dataflow> oder DataFrame
Eingabetrainingsdaten.
- validation_data
- <xref:azureml.dataprep.Dataflow> oder DataFrame
Validierungsdaten.
Gibt zurück
Die übergeordnete AutoML-Ausführung.
Rückgabetyp
Ausnahmen
fail
Lassen Sie eine AutoML-Ausführung fehlschlagen.
Legen Sie optional die Fehlereigenschaft der Ausführung mit einer Meldung oder Ausnahme fest, die an error_details
übergeben wird.
fail(error_details=None, error_code=None, _set_status=True, **kwargs)
Parameter
- _set_status
- bool
Gibt an, ob das Statusereignis zur Nachverfolgung gesendet werden soll.
get_best_child
Geben Sie die untergeordnete Ausführung mit der besten Bewertung für diese AutoML-Ausführung zurück.
get_best_child(metric: str | None = None, onnx_compatible: bool = False, **kwargs: Any) -> Run
Parameter
- metric
- str
Die Metrik, die beim Auswählen der besten Ausführung verwendet werden soll. Standardmäßig wird die primäre Metrik verwendet.
- onnx_compatible
Gibt an, ob nur Ausführungen zurückgegeben werden sollen, die ONNX-Modelle generiert haben.
- kwargs
Gibt zurück
Untergeordnete AutoML-Ausführung.
get_guardrails
Ausgeben und Zurückgeben detaillierter Ergebnisse der Ausführung der Guardrail-Verifizierung.
get_guardrails(to_console: bool = True) -> Dict[str, Any]
Parameter
- to_console
- bool
Gibt an, ob die Verifizierungsergebnisse in der Konsole ausgegeben werden sollen.
Gibt zurück
Ein Wörterbuch mit Verifizierungsergebnissen.
Rückgabetyp
Ausnahmen
get_output
Geben Sie die Ausführung mit der entsprechenden besten Pipeline zurück, die bereits getestet wurde.
get_output
gibt die beste Pipeline gemäß der primären Metrik zurück, wenn keine Eingabeparameter bereitgestellt werden. Alternativ können Sie entweder den Parameter iteration
oder metric
verwenden, um eine bestimmte Iteration oder die beste Ausführung pro bereitgestellter Metrik abzurufen.
get_output(iteration: int | None = None, metric: str | None = None, return_onnx_model: bool = False, return_split_onnx_model: SplitOnnxModelName | None = None, **kwargs: Any) -> Tuple[Run, Any]
Parameter
- iteration
- int
Die Iterationsnummer der entsprechenden Ausführung und des angepassten Modells, das zurückgegeben werden soll.
- metric
- str
Die Metrik, die beim Auswählen der besten Ausführung und des besten angepassten Modells verwendet werden soll.
- return_onnx_model
- bool
Diese Methode gibt das konvertierte ONNX-Modell zurück, wenn der Parameter enable_onnx_compatible_models
im AutoMLConfig-Objekt auf „True“ festgelegt wurde.
- return_split_onnx_model
- SplitOnnxModelName
Der Typ des geteilten ONNX-Modells, das zurückgegeben werden soll
Gibt zurück
Die Ausführung, das entsprechende angepasste Modell.
Rückgabetyp
Ausnahmen
Hinweise
Wenn Sie die verwendeten Präprozessoren und Algorithmen (Schätzer) untersuchen möchten, können Sie dies mithilfe von Model.steps
tun, ähnlich wie sklearn.pipeline.Pipeline.steps
.
Der folgende Code zeigt beispielsweise, wie der Schätzer abgerufen wird.
best_run, model = parent_run.get_output()
estimator = model.steps[-1]
get_run_sdk_dependencies
Rufen Sie die SDK-Ausführungsabhängigkeiten für eine bestimmte Ausführung ab.
get_run_sdk_dependencies(iteration=None, check_versions=True, **kwargs)
Parameter
- iteration
- int
Die Iterationsnummer der angepassten Ausführung, die abgerufen werden soll. Bei „None“ wird die übergeordnete Umgebung abgerufen.
- check_versions
- bool
Bei „True“ werden die Versionen mit der aktuellen Umgebung überprüft. Bei „False“ überspringen.
Gibt zurück
Das Wörterbuch der aus RunHistory abgerufenen Abhängigkeiten.
Rückgabetyp
Ausnahmen
pause
Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich pausiert wurde.
Diese Methode ist nicht implementiert.
pause()
Ausnahmen
register_model
Registrieren Sie das Modell beim AzureML ACI-Dienst.
register_model(model_name=None, description=None, tags=None, iteration=None, metric=None)
Parameter
- iteration
- int
Außerkraftsetzung, durch die ein anderes Modell bereitgestellt wird. Stellt das Modell einer bestimmten Iteration bereit.
- metric
- str
Außerkraftsetzung, durch die ein anderes Modell bereitgestellt wird. Stellt das beste Modell für eine andere Metrik bereit.
Gibt zurück
Das registrierte Modellobjekt.
Rückgabetyp
resume
Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich fortgesetzt wurde.
Diese Methode ist nicht implementiert.
resume()
Ausnahmen
retry
Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich erneut versucht wurde.
Diese Methode ist nicht implementiert.
retry()
Ausnahmen
summary
Rufen Sie eine Tabelle ab, die eine Zusammenfassung der versuchten Algorithmen und deren Scores enthält.
summary()
Gibt zurück
Pandas-DataFrame mit AutoML-Modellstatistiken.
Rückgabetyp
wait_for_completion
Auf den Abschluss dieser Ausführung warten.
Gibt das Statusobjekt nach dem Wartezustand zurück.
wait_for_completion(show_output=False, wait_post_processing=False)
Parameter
- show_output
- bool
Gibt an, ob die Ausgabe der Ausführung in sys.stdout angezeigt werden soll.
- wait_post_processing
- bool
Gibt an, ob nach Abschluss der Ausführung auf den Abschluss der Nachverarbeitung gewartet werden soll.
Gibt zurück
Das Statusobjekt.
Rückgabetyp
Ausnahmen
Attribute
run_id
Geben Sie die Ausführungs-ID der aktuellen Ausführung zurück.
Gibt zurück
Die Ausführungs-ID der aktuellen Ausführung.
Rückgabetyp
Feedback
https://aka.ms/ContentUserFeedback.
Bald verfügbar: Im Laufe des Jahres 2024 werden wir GitHub-Issues stufenweise als Feedbackmechanismus für Inhalte abbauen und durch ein neues Feedbacksystem ersetzen. Weitere Informationen finden Sie unterFeedback senden und anzeigen für