AutoMLRun Classe
Rappresenta un esperimento di Machine Learning automatizzato eseguito in Azure Machine Learning.
La classe AutoMLRun può essere usata per gestire un'esecuzione, controllare lo stato di esecuzione e recuperare i dettagli dell'esecuzione dopo l'invio di un'esecuzione AutoML. Per altre informazioni sull'uso delle esecuzioni dell'esperimento, vedere la Run classe .
Inizializzare un'esecuzione autoML.
- Ereditarietà
-
AutoMLRun
Costruttore
AutoMLRun(experiment, run_id, **kwargs)
Parametri
Commenti
Quando si utilizza il submit metodo di un esperimento, viene restituito un oggetto AutoMLRun.
Per recuperare un'esecuzione già avviata, usare il codice seguente:
from azureml.train.automl.run import AutoMLRun
ws = Workspace.from_config()
experiment = ws.experiments['my-experiment-name']
automl_run = AutoMLRun(experiment, run_id = 'AutoML_9fe201fe-89fd-41cc-905f-2f41a5a98883')
Metodi
cancel |
Annullare un'esecuzione autoML. Restituisce True se l'esecuzione di AutoML è stata annullata correttamente. |
cancel_iteration |
Annullare un'esecuzione figlio specifica. |
complete |
Completare un'esecuzione autoML. |
continue_experiment |
Continuare un esperimento AutoML esistente. |
fail |
Esito negativo di un'esecuzione autoML. Facoltativamente, impostare la proprietà Error dell'esecuzione con un messaggio o un'eccezione passata a |
get_best_child |
Restituisce l'esecuzione figlio con il punteggio migliore per questa esecuzione AutoML. |
get_guardrails |
Stampare e restituire risultati dettagliati dall'esecuzione della verifica guardrail. |
get_output |
Restituisce l'esecuzione con la pipeline migliore corrispondente già testata. Se non vengono forniti parametri di input, |
get_run_sdk_dependencies |
Ottenere le dipendenze dell'esecuzione dell'SDK per una determinata esecuzione. |
pause |
Restituisce True se l'esecuzione di AutoML è stata sospesa correttamente. Questo metodo non è implementato. |
register_model |
Registrare il modello con il servizio AzureML ACI. |
resume |
Restituisce True se l'esecuzione autoML è stata ripresa correttamente. Questo metodo non è implementato. |
retry |
Restituisce True se l'esecuzione di AutoML è stata ritentata correttamente. Questo metodo non è implementato. |
summary |
Ottenere una tabella contenente un riepilogo degli algoritmi tentati e i relativi punteggi. |
wait_for_completion |
Attendere il completamento dell'esecuzione. Restituisce l'oggetto status dopo l'attesa. |
cancel
Annullare un'esecuzione autoML.
Restituisce True se l'esecuzione di AutoML è stata annullata correttamente.
cancel()
Restituisce
Nessuno
cancel_iteration
Annullare un'esecuzione figlio specifica.
cancel_iteration(iteration)
Parametri
Restituisce
Nessuno
complete
Completare un'esecuzione autoML.
complete(**kwargs)
Restituisce
Nessuno
continue_experiment
Continuare un esperimento AutoML esistente.
continue_experiment(X=None, y=None, sample_weight=None, X_valid=None, y_valid=None, sample_weight_valid=None, data=None, label=None, columns=None, cv_splits_indices=None, spark_context=None, experiment_timeout_hours=None, experiment_exit_score=None, iterations=None, show_output=False, training_data=None, validation_data=None, **kwargs)
Parametri
Funzionalità di training.
Etichette di training.
Pesi di esempio per i dati di training.
Funzionalità di convalida.
Etichette di convalida.
pesi campione del set di convalida.
Elenco di colonne consentite nei dati da usare come funzionalità.
- cv_splits_indices
- ndarray
Indici in cui suddividere i dati di training per la convalida incrociata. Ogni riga è una piega incrociata separata e all'interno di ogni crossfold, specificare 2 matrici, la prima con gli indici per i campioni da usare per i dati di training e la seconda con gli indici da usare per i dati di convalida. ad esempio [[t1, v1], [t2, v2], ...] dove t1 è gli indici di training per la prima piega incrociata e v1 è l'indice di convalida per la prima piega incrociata.
- spark_context
- <xref:SparkContext>
Contesto Spark, applicabile solo se usato all'interno dell'ambiente azure databricks/spark.
- experiment_timeout_hours
- float
Numero di ore aggiuntive per cui eseguire questo esperimento.
- experiment_exit_score
- int
Se specificato indica che l'esperimento viene terminato quando viene raggiunto questo valore.
- iterations
- int
Numero di iterazioni aggiuntive da eseguire per questo esperimento.
- training_data
- <xref:azureml.dataprep.Dataflow> oppure DataFrame
Dati di training di input.
- validation_data
- <xref:azureml.dataprep.Dataflow> oppure DataFrame
Dati di convalida.
Restituisce
Esecuzione padre autoML.
Tipo restituito
Eccezioni
fail
Esito negativo di un'esecuzione autoML.
Facoltativamente, impostare la proprietà Error dell'esecuzione con un messaggio o un'eccezione passata a error_details
.
fail(error_details=None, error_code=None, _set_status=True, **kwargs)
Parametri
- error_code
- str
Codice di errore facoltativo dell'errore per la classificazione degli errori.
get_best_child
Restituisce l'esecuzione figlio con il punteggio migliore per questa esecuzione AutoML.
get_best_child(metric: str | None = None, onnx_compatible: bool = False, **kwargs: Any) -> Run
Parametri
- metric
- str
Metrica da usare per la selezione dell'esecuzione migliore da restituire. Il valore predefinito è la metrica primaria.
- onnx_compatible
Indica se restituire solo le esecuzioni generate dai modelli onnx.
- kwargs
Restituisce
Esecuzione figlio AutoML.
get_guardrails
Stampare e restituire risultati dettagliati dall'esecuzione della verifica guardrail.
get_guardrails(to_console: bool = True) -> Dict[str, Any]
Parametri
- to_console
- bool
Indica se scrivere i risultati della verifica nella console.
Restituisce
Dizionario dei risultati del verificatore.
Tipo restituito
Eccezioni
get_output
Restituisce l'esecuzione con la pipeline migliore corrispondente già testata.
Se non vengono forniti parametri di input, get_output
restituisce la pipeline migliore in base alla metrica primaria. In alternativa, è possibile usare il iteration
parametro o metric
per recuperare una particolare iterazione o la migliore esecuzione per ogni metrica specificata.
get_output(iteration: int | None = None, metric: str | None = None, return_onnx_model: bool = False, return_split_onnx_model: SplitOnnxModelName | None = None, **kwargs: Any) -> Tuple[Run, Any]
Parametri
- iteration
- int
Numero di iterazione dell'esecuzione corrispondente e del modello adattato da restituire.
- metric
- str
Metrica da usare per la selezione della migliore esecuzione e del modello adattato da restituire.
- return_onnx_model
- bool
Questo metodo restituirà il modello ONNX convertito se il enable_onnx_compatible_models
parametro è stato impostato su True nell'oggetto AutoMLConfig .
- return_split_onnx_model
- SplitOnnxModelName
Tipo del modello split onnx da restituire
Restituisce
L'esecuzione, il modello montato corrispondente.
Tipo restituito
Eccezioni
Commenti
Se si vuole controllare i preprocessori e gli algoritmi (estimator) usati, è possibile eseguire questa operazione tramite Model.steps
, in modo simile a sklearn.pipeline.Pipeline.steps
.
Ad esempio, il codice seguente illustra come recuperare lo strumento di stima.
best_run, model = parent_run.get_output()
estimator = model.steps[-1]
get_run_sdk_dependencies
Ottenere le dipendenze dell'esecuzione dell'SDK per una determinata esecuzione.
get_run_sdk_dependencies(iteration=None, check_versions=True, **kwargs)
Parametri
- iteration
- int
Numero di iterazione dell'esecuzione adattata da recuperare. Se Nessuno, recuperare l'ambiente padre.
- check_versions
- bool
Se True, controllare le versioni con l'ambiente corrente. Se False, passare.
Restituisce
Dizionario delle dipendenze recuperate da RunHistory.
Tipo restituito
Eccezioni
pause
Restituisce True se l'esecuzione di AutoML è stata sospesa correttamente.
Questo metodo non è implementato.
pause()
Eccezioni
register_model
Registrare il modello con il servizio AzureML ACI.
register_model(model_name=None, description=None, tags=None, iteration=None, metric=None)
Parametri
- iteration
- int
Eseguire l'override per il modello da distribuire. Distribuisce il modello per una determinata iterazione.
- metric
- str
Eseguire l'override per il modello da distribuire. Distribuisce il modello migliore per una metrica diversa.
Restituisce
Oggetto modello registrato.
Tipo restituito
resume
Restituisce True se l'esecuzione autoML è stata ripresa correttamente.
Questo metodo non è implementato.
resume()
Eccezioni
retry
Restituisce True se l'esecuzione di AutoML è stata ritentata correttamente.
Questo metodo non è implementato.
retry()
Eccezioni
summary
Ottenere una tabella contenente un riepilogo degli algoritmi tentati e i relativi punteggi.
summary()
Restituisce
DataFrame Pandas contenente le statistiche del modello AutoML.
Tipo restituito
wait_for_completion
Attendere il completamento dell'esecuzione.
Restituisce l'oggetto status dopo l'attesa.
wait_for_completion(show_output=False, wait_post_processing=False)
Parametri
- show_output
- bool
Indica se visualizzare l'output dell'esecuzione in sys.stdout.
- wait_post_processing
- bool
Indica se attendere il completamento della post-elaborazione al termine dell'esecuzione.
Restituisce
Oggetto status.
Tipo restituito
Eccezioni
Attributi
run_id
Restituisce l'ID di esecuzione dell'esecuzione corrente.
Restituisce
ID esecuzione dell'esecuzione corrente.
Tipo restituito
Commenti e suggerimenti
https://aka.ms/ContentUserFeedback.
Presto disponibile: Nel corso del 2024 verranno gradualmente disattivati i problemi di GitHub come meccanismo di feedback per il contenuto e ciò verrà sostituito con un nuovo sistema di feedback. Per altre informazioni, vedereInvia e visualizza il feedback per