Activer la journalisation dans les pipelines du concepteur Azure Machine Learning
Dans cet article, vous allez apprendre à ajouter du code de journalisation aux pipelines du concepteur. Vous allez également apprendre à afficher ces journaux à l’aide du portail web de Azure Machine Learning Studio.
Pour plus d’informations sur les métriques de journalisation à l’aide de l’expérience de création du Kit de développement logiciel (SDK), consultez Surveiller les exécutions et les métriques des expériences Azure Machine Learning.
Activer la journalisation avec Exécuter un script Python
Utilisez le composant Exécuter un script Python pour activer la journalisation dans les pipelines du concepteur. Bien qu’il soit possible de consigner n’importe quelle valeur avec ce flux de travail, il est particulièrement utile de journaliser les métriques du composant Évaluer un modèle pour effectuer un suivi du niveau de performance du modèle dans les différentes exécutions.
L’exemple suivant montre comment journaliser l’erreur carrée moyenne de deux modèles entraînés avec les composants Évaluer un modèle et Exécuter un script Python.
Connectez un composant Exécuter un script Python à la sortie du composant Évaluer un modèle.
Collez le code suivant dans l’éditeur de code Exécuter un script Python pour journaliser l’erreur absolue moyenne de votre modèle formé : Vous pouvez utiliser un modèle similaire pour journaliser toute autre valeur dans le concepteur :
S’APPLIQUE À : SDK Python azureml v1
# dataframe1 contains the values from Evaluate Model def azureml_main(dataframe1=None, dataframe2=None): print(f'Input pandas.DataFrame #1: {dataframe1}') from azureml.core import Run run = Run.get_context() # Log the mean absolute error to the parent run to see the metric in the run details page. # Note: 'run.parent.log()' should not be called multiple times because of performance issues. # If repeated calls are necessary, cache 'run.parent' as a local variable and call 'log()' on that variable. parent_run = Run.get_context().parent # Log left output port result of Evaluate Model. This also works when evaluate only 1 model. parent_run.log(name='Mean_Absolute_Error (left port)', value=dataframe1['Mean_Absolute_Error'][0]) # Log right output port result of Evaluate Model. The following line should be deleted if you only connect one Score component to the` left port of Evaluate Model component. parent_run.log(name='Mean_Absolute_Error (right port)', value=dataframe1['Mean_Absolute_Error'][1]) return dataframe1,
Ce code utilise le Kit de développement logiciel (SDK) Python d’Azure Machine Learning pour journaliser des valeurs. Il utilise Run. get_context() pour récupérer le contexte de l’exécution actuelle. Il journalise ensuite les valeurs dans ce contexte à l’aide de la méthode run.parent.log(). Il utilise parent
pour journaliser les valeurs dans l’exécution de pipeline parente plutôt que dans l’exécution du composant.
Pour plus d’informations sur l’utilisation du Kit de développement logiciel (SDK) Python pour journaliser des valeurs, consultez Activer la journalisation dans les exécutions de formation Azure Machine Learning.
Afficher les journaux d’activité
Une fois l’exécution du pipeline terminée, vous pouvez voir l’erreur Mean_Absolute_Error dans la page Expériences.
Accédez à la section Travaux.
Sélectionner votre expérience.
Sélectionnez la tâche dans votre expérience que vous souhaitez afficher.
Sélectionnez Métriques.
Étapes suivantes
Dans cet article, vous avez appris à utiliser des journaux dans le concepteur. Pour connaître les étapes suivantes, consultez les articles connexes :
- Découvrez comment dépanner des pipelines de concepteur en consultant Déboguer et dépanner des pipelines ML.
- Pour découvrir comment utiliser le Kit de développement logiciel (SDK) Python pour journaliser des métriques dans l’expérience de création du Kit de développement logiciel (SDK), consultez Activer la journalisation dans les exécutions de formation Azure Machine Learning.
- Découvrez comment utiliser le module Exécuter un script Python dans le concepteur.