Partage via


Activer la journalisation dans les pipelines du concepteur Azure Machine Learning

Dans cet article, vous allez apprendre à ajouter du code de journalisation aux pipelines du concepteur. Vous allez également apprendre à afficher ces journaux à l’aide du portail web de Azure Machine Learning Studio.

Pour plus d’informations sur les métriques de journalisation à l’aide de l’expérience de création du Kit de développement logiciel (SDK), consultez Surveiller les exécutions et les métriques des expériences Azure Machine Learning.

Activer la journalisation avec Exécuter un script Python

Utilisez le composant Exécuter un script Python pour activer la journalisation dans les pipelines du concepteur. Bien qu’il soit possible de consigner n’importe quelle valeur avec ce flux de travail, il est particulièrement utile de journaliser les métriques du composant Évaluer un modèle pour effectuer un suivi du niveau de performance du modèle dans les différentes exécutions.

L’exemple suivant montre comment journaliser l’erreur carrée moyenne de deux modèles entraînés avec les composants Évaluer un modèle et Exécuter un script Python.

  1. Connectez un composant Exécuter un script Python à la sortie du composant Évaluer un modèle.

    Connexion du composant Exécuter un script Python au composant Évaluer un modèle

  2. Collez le code suivant dans l’éditeur de code Exécuter un script Python pour journaliser l’erreur absolue moyenne de votre modèle formé : Vous pouvez utiliser un modèle similaire pour journaliser toute autre valeur dans le concepteur :

    S’APPLIQUE À : SDK Python azureml v1

    # dataframe1 contains the values from Evaluate Model
    def azureml_main(dataframe1=None, dataframe2=None):
        print(f'Input pandas.DataFrame #1: {dataframe1}')
    
        from azureml.core import Run
    
        run = Run.get_context()
    
        # Log the mean absolute error to the parent run to see the metric in the run details page.
        # Note: 'run.parent.log()' should not be called multiple times because of performance issues.
        # If repeated calls are necessary, cache 'run.parent' as a local variable and call 'log()' on that variable.
        parent_run = Run.get_context().parent
    
        # Log left output port result of Evaluate Model. This also works when evaluate only 1 model.
        parent_run.log(name='Mean_Absolute_Error (left port)', value=dataframe1['Mean_Absolute_Error'][0])
        # Log right output port result of Evaluate Model. The following line should be deleted if you only connect one Score component to the` left port of Evaluate Model component.
        parent_run.log(name='Mean_Absolute_Error (right port)', value=dataframe1['Mean_Absolute_Error'][1])
    
        return dataframe1,
    

Ce code utilise le Kit de développement logiciel (SDK) Python d’Azure Machine Learning pour journaliser des valeurs. Il utilise Run. get_context() pour récupérer le contexte de l’exécution actuelle. Il journalise ensuite les valeurs dans ce contexte à l’aide de la méthode run.parent.log(). Il utilise parent pour journaliser les valeurs dans l’exécution de pipeline parente plutôt que dans l’exécution du composant.

Pour plus d’informations sur l’utilisation du Kit de développement logiciel (SDK) Python pour journaliser des valeurs, consultez Activer la journalisation dans les exécutions de formation Azure Machine Learning.

Afficher les journaux d’activité

Une fois l’exécution du pipeline terminée, vous pouvez voir l’erreur Mean_Absolute_Error dans la page Expériences.

  1. Accédez à la section Travaux.

  2. Sélectionner votre expérience.

  3. Sélectionnez la tâche dans votre expérience que vous souhaitez afficher.

  4. Sélectionnez Métriques.

    Afficher les métriques de travail dans le studio

Étapes suivantes

Dans cet article, vous avez appris à utiliser des journaux dans le concepteur. Pour connaître les étapes suivantes, consultez les articles connexes :