Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Nota
La versione open source di Hyperopt non è più gestita.
Hyperopt verrà rimosso nella prossima versione principale di DBR ML. Azure Databricks consiglia di usare Optuna per l'ottimizzazione a nodo singolo oppure RayTune per un'esperienza simile alla funzionalità di ottimizzazione degli iperparametri di Hyperopt distribuita e deprecata. Altre informazioni sull'uso di RayTune in Azure Databricks.
Questo notebook illustra come usare Hyperopt per parallelizzare i calcoli di ottimizzazione degli iperparametri. Usa la classe SparkTrials per distribuire automaticamente i calcoli tra i lavoratori del cluster. Illustra anche il rilevamento automatizzato di MLflow delle esecuzioni di Hyperopt in modo da poter salvare i risultati per un secondo momento.
Parallelizzare l'ottimizzazione degli iperparametri con il tracciamento automatizzato con MLflow tramite notebook
Dopo aver eseguito le azioni nell'ultima cella del notebook, dovrebbe venir visualizzata l'interfaccia utente di MLflow: