Partilhar via


Habilitar o registro em log nos pipelines do designer do Azure Machine Learning

Neste artigo, você aprenderá a adicionar código de log a pipelines de designer. Você também aprenderá a exibir esses logs usando o portal da Web do estúdio do Azure Machine Learning.

Para obter mais informações sobre métricas de registro em log usando a experiência de criação do SDK, consulte Monitorar execuções e métricas de experimento do Azure Machine Learning.

Habilitar o registro em log com Execute Python Script

Use o componente Executar Python Script para habilitar o registro em pipelines de designer. Embora você possa registrar qualquer valor com esse fluxo de trabalho, é especialmente útil registrar métricas do componente Avaliar modelo para acompanhar o desempenho do modelo em execuções.

O exemplo a seguir mostra como registrar o erro quadrático médio de dois modelos treinados usando os componentes Evaluate Model e Execute Python Script.

  1. Conecte um componente Execute Python Script à saída do componente Evaluate Model .

    Conecte o componente Executar Script Python ao componente Avaliar Modelo

  2. Cole o código a seguir no editor de código Execute Python Script para registrar o erro absoluto médio para seu modelo treinado. Você pode usar um padrão semelhante para registrar qualquer outro valor no designer:

    APLICA-SE A: Python SDK azureml v1

    # dataframe1 contains the values from Evaluate Model
    def azureml_main(dataframe1=None, dataframe2=None):
        print(f'Input pandas.DataFrame #1: {dataframe1}')
    
        from azureml.core import Run
    
        run = Run.get_context()
    
        # Log the mean absolute error to the parent run to see the metric in the run details page.
        # Note: 'run.parent.log()' should not be called multiple times because of performance issues.
        # If repeated calls are necessary, cache 'run.parent' as a local variable and call 'log()' on that variable.
        parent_run = Run.get_context().parent
    
        # Log left output port result of Evaluate Model. This also works when evaluate only 1 model.
        parent_run.log(name='Mean_Absolute_Error (left port)', value=dataframe1['Mean_Absolute_Error'][0])
        # Log right output port result of Evaluate Model. The following line should be deleted if you only connect one Score component to the` left port of Evaluate Model component.
        parent_run.log(name='Mean_Absolute_Error (right port)', value=dataframe1['Mean_Absolute_Error'][1])
    
        return dataframe1,
    

Esse código usa o SDK Python do Azure Machine Learning para registrar valores. Ele usa Run.get_context() para obter o contexto da execução atual. Em seguida, ele registra valores nesse contexto com o método run.parent.log(). Ele usa parent para registrar valores na execução do pipeline pai em vez da execução do componente.

Para obter mais informações sobre como usar o SDK do Python para registrar valores, consulte Habilitar o registro em log em execuções de treinamento do Aprendizado de Máquina do Azure.

Ver registos

Após a conclusão da execução do pipeline, você poderá ver o Mean_Absolute_Error na página Experimentos.

  1. Navegue até a seção Trabalhos .

  2. Selecione seu experimento.

  3. Selecione o trabalho em seu experimento que você deseja visualizar.

  4. Selecione Métricas.

    Veja as métricas do trabalho no estúdio

Próximos passos

Neste artigo, você aprendeu como usar logs no designer. Para as próximas etapas, consulte estes artigos relacionados: