Delen via


Logboekregistratie inschakelen in Azure Machine Learning Designer-pijplijnen

In dit artikel leert u hoe u logboekcode toevoegt aan ontwerppijplijnen. U leert ook hoe u deze logboeken kunt weergeven met behulp van de Azure Machine Learning-studio-webportal.

Zie Azure Machine Learning-experimentuitvoeringen en metrische gegevens bewaken voor meer informatie over het vastleggen van metrische gegevens met behulp van de SDK-ontwerpervaring.

Logboekregistratie inschakelen met Python-script uitvoeren

Gebruik het onderdeel Python-script uitvoeren om logboekregistratie in designer-pijplijnen in te schakelen. Hoewel u elke waarde met deze werkstroom kunt vastleggen, is het vooral handig om metrische gegevens van het onderdeel Evaluate Model te registreren om de modelprestaties in uitvoeringen bij te houden.

In het volgende voorbeeld ziet u hoe u de gemiddelde kwadratische fout van twee getrainde modellen kunt vastleggen met behulp van de onderdelen Evaluate Model en Execute Python Script.

  1. Verbind een Python-scriptonderdeel uitvoeren met de uitvoer van het onderdeel Evaluate Model .

    Verbinding maken met het onderdeel Python-script uitvoeren om het model te evalueren

  2. Plak de volgende code in de code-editor Python-script uitvoeren om de gemiddelde absolute fout voor uw getrainde model te registreren. U kunt een vergelijkbaar patroon gebruiken om een andere waarde in de ontwerpfunctie te registreren:

    VAN TOEPASSING OP: Python SDK azureml v1

    # dataframe1 contains the values from Evaluate Model
    def azureml_main(dataframe1=None, dataframe2=None):
        print(f'Input pandas.DataFrame #1: {dataframe1}')
    
        from azureml.core import Run
    
        run = Run.get_context()
    
        # Log the mean absolute error to the parent run to see the metric in the run details page.
        # Note: 'run.parent.log()' should not be called multiple times because of performance issues.
        # If repeated calls are necessary, cache 'run.parent' as a local variable and call 'log()' on that variable.
        parent_run = Run.get_context().parent
    
        # Log left output port result of Evaluate Model. This also works when evaluate only 1 model.
        parent_run.log(name='Mean_Absolute_Error (left port)', value=dataframe1['Mean_Absolute_Error'][0])
        # Log right output port result of Evaluate Model. The following line should be deleted if you only connect one Score component to the` left port of Evaluate Model component.
        parent_run.log(name='Mean_Absolute_Error (right port)', value=dataframe1['Mean_Absolute_Error'][1])
    
        return dataframe1,
    

Deze code maakt gebruik van de Azure Machine Learning Python SDK om waarden te registreren. Er wordt Run.get_context() gebruikt om de context van de huidige uitvoering op te halen. Vervolgens worden waarden in die context met de methode run.parent.log() vastgeslagen. Het gebruikt parent om waarden vast te leggen bij de bovenliggende pijplijnuitvoering in plaats van de uitvoering van het onderdeel.

Zie Logboekregistratie in azure Machine Learning-trainingsuitvoeringen inschakelen voor meer informatie over het gebruik van de Python SDK om waarden te registreren.

Logboeken weergeven

Nadat de pijplijnuitvoering is voltooid, ziet u de Mean_Absolute_Error op de pagina Experimenten.

  1. Navigeer naar de sectie Taken .

  2. Selecteer uw experiment.

  3. Selecteer de taak in uw experiment die u wilt weergeven.

  4. Selecteer Metrische gegevens.

    Metrische taakgegevens weergeven in de studio

Volgende stappen

In dit artikel hebt u geleerd hoe u logboeken gebruikt in de ontwerpfunctie. Zie de volgende artikelen voor de volgende stappen: