Abilitare la registrazione nelle pipeline della finestra di progettazione di Azure Machine Learning
Questo articolo illustra come aggiungere codice di registrazione alle pipeline della finestra di progettazione. Si apprenderà anche come visualizzare i log usando il portale Web dello studio di Azure Machine Learning.
Per altre informazioni sulla registrazione delle metriche con l'esperienza di creazione dell'SDK, vedere Monitorare le esecuzioni e le metriche degli esperimenti di Azure Machine Learning.
Abilitare la registrazione con Esegui script Python
Usare il componente Esegui script Python per abilitare la registrazione nelle pipeline della finestra di progettazione. Anche se è possibile registrare qualsiasi valore con questo flusso di lavoro, è particolarmente utile registrare le metriche dal componente Valutazione del modello per tenere traccia delle prestazioni del modello tra le esecuzioni.
L'esempio seguente illustra come registrare l'errore quadratico medio di due modelli sottoposti a training usando i componenti Valutazione del modello ed Esegui script Python.
Connettere un componente Esegui script Python all'output del componente Valutazione del modello.
Incollare il codice seguente nell'editor di codice di Esegui script Python per registrare l'errore assoluto medio per il modello sottoposto a training. È possibile usare un modello simile per registrare qualsiasi altro valore nella finestra di progettazione:
Si applica a: Python SDK azureml v1
# dataframe1 contains the values from Evaluate Model def azureml_main(dataframe1=None, dataframe2=None): print(f'Input pandas.DataFrame #1: {dataframe1}') from azureml.core import Run run = Run.get_context() # Log the mean absolute error to the parent run to see the metric in the run details page. # Note: 'run.parent.log()' should not be called multiple times because of performance issues. # If repeated calls are necessary, cache 'run.parent' as a local variable and call 'log()' on that variable. parent_run = Run.get_context().parent # Log left output port result of Evaluate Model. This also works when evaluate only 1 model. parent_run.log(name='Mean_Absolute_Error (left port)', value=dataframe1['Mean_Absolute_Error'][0]) # Log right output port result of Evaluate Model. The following line should be deleted if you only connect one Score component to the` left port of Evaluate Model component. parent_run.log(name='Mean_Absolute_Error (right port)', value=dataframe1['Mean_Absolute_Error'][1]) return dataframe1,
Questo codice usa Azure Machine Learning Python SDK per registrare i valori. Usa Run.get_context() per ottenere il contesto dell'esecuzione corrente. Registra quindi i valori in tale contesto con il metodo run.parent.log(). Usa parent
per registrare i valori nell'esecuzione della pipeline padre anziché l'esecuzione del componente.
Per altre informazioni su come usare Python SDK per registrare i valori, vedere Abilitare la registrazione nelle esecuzioni di training di Azure Machine Learning.
Visualizzare i log
Al termine dell'esecuzione della pipeline, è possibile visualizzare il valore Mean_Absolute_Error nella pagina Esperimenti.
Passare alla sezione Processi.
Selezionare l'esperimento.
Selezionare il processo nell'esperimento da visualizzare.
Selezionare Metriche.
Passaggi successivi
In questo articolo si è appreso come usare i log nella finestra di progettazione. Per i passaggi successivi, vedere questi articoli correlati:
- Informazioni su come risolvere i problemi delle pipeline della finestra di progettazione, vedere Eseguire il debug e risolvere i problemi delle pipeline di Machine Learning.
- Per informazioni su come usare Python SDK per registrare le metriche nell'esperienza di creazione dell'SDK, vedere Abilitare la registrazione nelle esecuzioni di training di Azure Machine Learning.
- Informazioni su come usare Esegui script Python nella finestra di progettazione.