Udostępnij za pośrednictwem


PermutationFeatureImportanceExtensions.PermutationFeatureImportanceNonCalibrated Metoda

Definicja

Ważność funkcji permutacji (PFI) dla klasyfikacji binarnej.

public static System.Collections.Immutable.ImmutableDictionary<string,Microsoft.ML.Data.BinaryClassificationMetricsStatistics> PermutationFeatureImportanceNonCalibrated (this Microsoft.ML.BinaryClassificationCatalog catalog, Microsoft.ML.ITransformer model, Microsoft.ML.IDataView data, string labelColumnName = "Label", bool useFeatureWeightFilter = false, int? numberOfExamplesToUse = default, int permutationCount = 1);
static member PermutationFeatureImportanceNonCalibrated : Microsoft.ML.BinaryClassificationCatalog * Microsoft.ML.ITransformer * Microsoft.ML.IDataView * string * bool * Nullable<int> * int -> System.Collections.Immutable.ImmutableDictionary<string, Microsoft.ML.Data.BinaryClassificationMetricsStatistics>
<Extension()>
Public Function PermutationFeatureImportanceNonCalibrated (catalog As BinaryClassificationCatalog, model As ITransformer, data As IDataView, Optional labelColumnName As String = "Label", Optional useFeatureWeightFilter As Boolean = false, Optional numberOfExamplesToUse As Nullable(Of Integer) = Nothing, Optional permutationCount As Integer = 1) As ImmutableDictionary(Of String, BinaryClassificationMetricsStatistics)

Parametry

catalog
BinaryClassificationCatalog

Wykaz klasyfikacji binarnej.

model
ITransformer

Model, na którym ma być oceniana ważność funkcji.

data
IDataView

Zestaw danych oceny.

labelColumnName
String

Nazwa kolumny etykiety. Dane kolumny muszą mieć wartość Boolean.

useFeatureWeightFilter
Boolean

Używanie wagi funkcji do wstępnego filtrowania funkcji.

numberOfExamplesToUse
Nullable<Int32>

Ogranicz liczbę przykładów do oceny. oznacza, że zostanie użytych maksymalnie 2 przykładów bln z.

permutationCount
Int32

Liczba permutacji do wykonania.

Zwraca

Słownik mapuje każdą funkcję na funkcję "współtworzenia" do wyniku.

Przykłady

using System;
using System.Collections.Generic;
using System.Linq;
using Microsoft.ML;

namespace Samples.Dynamic.Trainers.BinaryClassification
{
    public static class PermutationFeatureImportance
    {
        public static void Example()
        {
            // Create a new context for ML.NET operations. It can be used for
            // exception tracking and logging, as a catalog of available operations
            // and as the source of randomness.
            var mlContext = new MLContext(seed: 1);

            // Create sample data.
            var samples = GenerateData();

            // Load the sample data as an IDataView.
            var data = mlContext.Data.LoadFromEnumerable(samples);

            // Define a training pipeline that concatenates features into a vector,
            // normalizes them, and then trains a linear model.
            var featureColumns =
                new string[] { nameof(Data.Feature1), nameof(Data.Feature2) };
            var pipeline = mlContext.Transforms
                .Concatenate("Features", featureColumns)
                .Append(mlContext.Transforms.NormalizeMinMax("Features"))
                .Append(mlContext.BinaryClassification.Trainers
                .SdcaLogisticRegression());

            // Fit the pipeline to the data.
            var model = pipeline.Fit(data);

            // Transform the dataset.
            var transformedData = model.Transform(data);

            // Extract the predictor.
            var linearPredictor = model.LastTransformer;

            // Compute the permutation metrics for the linear model using the
            // normalized data.
            var permutationMetrics = mlContext.BinaryClassification
                .PermutationFeatureImportance(linearPredictor, transformedData,
                permutationCount: 30);

            // Now let's look at which features are most important to the model
            // overall. Get the feature indices sorted by their impact on AUC.
            var sortedIndices = permutationMetrics
                .Select((metrics, index) => new { index, metrics.AreaUnderRocCurve })
                .OrderByDescending(
                feature => Math.Abs(feature.AreaUnderRocCurve.Mean))
                .Select(feature => feature.index);

            Console.WriteLine("Feature\tModel Weight\tChange in AUC"
                + "\t95% Confidence in the Mean Change in AUC");
            var auc = permutationMetrics.Select(x => x.AreaUnderRocCurve).ToArray();
            foreach (int i in sortedIndices)
            {
                Console.WriteLine("{0}\t{1:0.00}\t{2:G4}\t{3:G4}",
                    featureColumns[i],
                    linearPredictor.Model.SubModel.Weights[i],
                    auc[i].Mean,
                    1.96 * auc[i].StandardError);
            }

            // Expected output:
            //  Feature     Model Weight Change in AUC  95% Confidence in the Mean Change in AUC
            //  Feature2        35.15     -0.387        0.002015
            //  Feature1        17.94     -0.1514       0.0008963
        }

        private class Data
        {
            public bool Label { get; set; }

            public float Feature1 { get; set; }

            public float Feature2 { get; set; }
        }

        /// <summary>
        /// Generate an enumerable of Data objects, creating the label as a simple
        /// linear combination of the features.
        /// </summary>
        /// <param name="nExamples">The number of examples.</param>
        /// <param name="bias">The bias, or offset, in the calculation of the label.
        /// </param>
        /// <param name="weight1">The weight to multiply the first feature with to
        /// compute the label.</param>
        /// <param name="weight2">The weight to multiply the second feature with to
        /// compute the label.</param>
        /// <param name="seed">The seed for generating feature values and label
        /// noise.</param>
        /// <returns>An enumerable of Data objects.</returns>
        private static IEnumerable<Data> GenerateData(int nExamples = 10000,
            double bias = 0, double weight1 = 1, double weight2 = 2, int seed = 1)
        {
            var rng = new Random(seed);
            for (int i = 0; i < nExamples; i++)
            {
                var data = new Data
                {
                    Feature1 = (float)(rng.Next(10) * (rng.NextDouble() - 0.5)),
                    Feature2 = (float)(rng.Next(10) * (rng.NextDouble() - 0.5)),
                };

                // Create a noisy label.
                var value = (float)(bias + weight1 * data.Feature1 + weight2 *
                    data.Feature2 + rng.NextDouble() - 0.5);

                data.Label = Sigmoid(value) > 0.5;
                yield return data;
            }
        }

        private static double Sigmoid(double x) => 1.0 / (1.0 + Math.Exp(-1 * x));
    }
}

Uwagi

Znaczenie funkcji permutacji (PFI) to technika określania globalnego znaczenia funkcji w wytrenowanym modelu uczenia maszynowego. PFI to prosta, ale potężna technika motywowana przez Breimana w swoim dokumencie Random Forest, sekcja 10 (Breiman. "Lasy losowe". Machine Learning, 2001). Zaletą metody PFI jest to, że jest ona niezależna od modelu — działa z dowolnym modelem, który można ocenić — i może używać dowolnego zestawu danych, a nie tylko zestawu szkoleniowego, do obliczania metryk ważności funkcji.

Funkcja PFI działa przez pobranie oznaczonego zestawu danych, wybranie funkcji i permutowanie wartości dla tej funkcji we wszystkich przykładach, dzięki czemu każdy przykład ma teraz losową wartość funkcji i oryginalne wartości dla wszystkich innych funkcji. Metryka oceny (np. AUC) jest następnie obliczana dla tego zmodyfikowanego zestawu danych, a zmiana metryki ewaluacyjnej z oryginalnego zestawu danych jest obliczana. Większe zmiany w metryce ewaluacyjnej, tym ważniejsze jest, aby funkcja dotyczyła modelu. Funkcja PFI działa, wykonując tę analizę permutacji we wszystkich funkcjach modelu, po sobie po drugiej.

W tej implementacji funkcja PFI oblicza zmianę wszystkich możliwych metryk oceny klasyfikacji binarnej dla każdej funkcji, a ImmutableArrayBinaryClassificationMetrics obiekt jest zwracany. Zapoznaj się z poniższym przykładem pracy z tymi wynikami, aby przeanalizować znaczenie funkcji modelu.

Dotyczy