Partager via


FastTreeBinaryTrainer.Options Classe

Définition

Options pour le FastTreeBinaryTrainer tel qu’utilisé dans FastTree(Options).

public sealed class FastTreeBinaryTrainer.Options : Microsoft.ML.Trainers.FastTree.BoostedTreeOptions, Microsoft.ML.Runtime.IComponentFactory<Microsoft.ML.ITrainer>
type FastTreeBinaryTrainer.Options = class
    inherit BoostedTreeOptions
    interface IComponentFactory<ITrainer>
    interface IComponentFactory
Public NotInheritable Class FastTreeBinaryTrainer.Options
Inherits BoostedTreeOptions
Implements IComponentFactory(Of ITrainer)
Héritage
Implémente
IComponentFactory IComponentFactory<Microsoft.ML.ITrainer>

Constructeurs

FastTreeBinaryTrainer.Options()

Créez un FastTreeBinaryTrainer.Options objet avec des valeurs par défaut.

Champs

AllowEmptyTrees

Lorsqu’un fractionnement racine est impossible, autorisez l’entraînement à continuer.

(Hérité de TreeOptions)
BaggingExampleFraction

Pourcentage d’exemples d’entraînement utilisés dans chaque sac. La valeur par défaut est 0,7 (70 %).

(Hérité de TreeOptions)
BaggingSize

Nombre d’arborescences dans chaque sac (0 pour désactiver l’ensachage).

(Hérité de TreeOptions)
BestStepRankingRegressionTrees

Option permettant d’utiliser les meilleures arborescences d’étapes de régression.

(Hérité de BoostedTreeOptions)
Bias

Biais pour le calcul du gradient pour chaque compartiment de caractéristiques pour une fonctionnalité catégorielle.

(Hérité de TreeOptions)
Bundling

Regrouper des bacs à faible population. Bundle.None(0) : aucun regroupement, Bundle.AggregateLowPopulation(1) : Bundle low population, Bundle.Adjacent(2) : lot de population faible voisin.

(Hérité de TreeOptions)
CategoricalSplit

Indique s’il faut effectuer un fractionnement en fonction de plusieurs valeurs de caractéristiques catégorielles.

(Hérité de TreeOptions)
CompressEnsemble

Compressez l’ensemble de l’arborescence.

(Hérité de TreeOptions)
DiskTranspose

Indique s’il faut utiliser le disque ou les installations de transposition natives des données (le cas échéant) lors de l’exécution de la transpose.

(Hérité de TreeOptions)
DropoutRate

Taux d’abandon pour la régularisation de l’arborescence.

(Hérité de BoostedTreeOptions)
EnablePruning

Activez l’élagage de l’arborescence post-entraînement pour éviter le surajustement. Elle nécessite un jeu de validation.

(Hérité de BoostedTreeOptions)
EntropyCoefficient

Coefficient d’entropie (régularisation) compris entre 0 et 1.

(Hérité de TreeOptions)
ExampleWeightColumnName

Colonne à utiliser pour l’exemple de poids.

(Hérité de TrainerInputBaseWithWeight)
ExecutionTime

Imprimer la répartition du temps d’exécution sur ML.NET canal.

(Hérité de TreeOptions)
FeatureColumnName

Colonne à utiliser pour les fonctionnalités.

(Hérité de TrainerInputBase)
FeatureFirstUsePenalty

La caractéristique utilise tout d’abord le coefficient de pénalité.

(Hérité de TreeOptions)
FeatureFlocks

Indique s’il faut collecter des fonctionnalités pendant la préparation du jeu de données pour accélérer l’entraînement.

(Hérité de TreeOptions)
FeatureFraction

Fraction de fonctionnalités (choisies de manière aléatoire) à utiliser sur chaque itération. Utilisez 0,9 si seulement 90 % des fonctionnalités sont nécessaires. Des nombres inférieurs permettent de réduire le surajustement.

(Hérité de TreeOptions)
FeatureFractionPerSplit

Fraction des fonctionnalités (choisies de manière aléatoire) à utiliser sur chaque fractionnement. Si sa valeur est 0,9, 90 % de toutes les fonctionnalités seraient supprimées dans l’attente.

(Hérité de TreeOptions)
FeatureReusePenalty

Coefficient de pénalité de réutilisation (régularisation) de la fonctionnalité.

(Hérité de TreeOptions)
FeatureSelectionSeed

Valeur initiale de la sélection de fonctionnalité active.

(Hérité de TreeOptions)
FilterZeroLambdas

Filtrez zéro lambda pendant l’entraînement.

(Hérité de BoostedTreeOptions)
GainConfidenceLevel

L’ajustement d’arborescence gagne en confiance. Considérez un gain uniquement si sa probabilité par rapport à un gain de choix aléatoire est supérieure à cette valeur.

(Hérité de TreeOptions)
GetDerivativesSampleRate

Échantillonner chaque requête 1 en k fois dans la fonction GetDerivatives.

(Hérité de BoostedTreeOptions)
HistogramPoolSize

Nombre d’histogrammes dans le pool (entre 2 et numLeaves).

(Hérité de TreeOptions)
LabelColumnName

Colonne à utiliser pour les étiquettes.

(Hérité de TrainerInputBaseWithLabel)
LearningRate

Taux d’apprentissage.

(Hérité de BoostedTreeOptions)
MaximumBinCountPerFeature

Nombre maximal de valeurs distinctes (emplacements) par caractéristique.

(Hérité de TreeOptions)
MaximumCategoricalGroupCountPerNode

Nombre maximal de groupes de fractionnements catégoriels à prendre en compte lors du fractionnement sur une fonctionnalité catégorielle. Les groupes fractionnés sont une collection de points de fractionnement. Cela permet de réduire le surajustement lorsqu’il existe de nombreuses fonctionnalités catégorielles.

(Hérité de TreeOptions)
MaximumCategoricalSplitPointCount

Nombre maximal de points de fractionnement catégoriels à prendre en compte lors du fractionnement sur une fonctionnalité catégorielle.

(Hérité de TreeOptions)
MaximumNumberOfLineSearchSteps

Nombre d’étapes de recherche de ligne post-crochet.

(Hérité de BoostedTreeOptions)
MaximumTreeOutput

Limite supérieure sur la valeur absolue de la sortie d’une seule arborescence.

(Hérité de BoostedTreeOptions)
MemoryStatistics

Imprimer les statistiques de mémoire sur ML.NET canal.

(Hérité de TreeOptions)
MinimumExampleCountPerLeaf

Nombre minimal de points de données requis pour former une nouvelle feuille d’arborescence.

(Hérité de TreeOptions)
MinimumExampleFractionForCategoricalSplit

Pourcentage minimal d’exemples catégoriels dans un bac à prendre en compte pour un fractionnement. La valeur par défaut est de 0,1 % de tous les exemples d’entraînement.

(Hérité de TreeOptions)
MinimumExamplesForCategoricalSplit

Nombre minimal d’exemples catégoriels dans un bac à prendre en compte pour un fractionnement.

(Hérité de TreeOptions)
MinimumStepSize

Taille minimale de l’étape de recherche de ligne.

(Hérité de BoostedTreeOptions)
NumberOfLeaves

Nombre maximal de feuilles dans chaque arborescence de régression.

(Hérité de TreeOptions)
NumberOfThreads

Nombre de threads à utiliser.

(Hérité de TreeOptions)
NumberOfTrees

Nombre total d’arbres de décision à créer dans l’ensemble.

(Hérité de TreeOptions)
OptimizationAlgorithm

Algorithme d’optimisation à utiliser.

(Hérité de BoostedTreeOptions)
PruningThreshold

Seuil de tolérance pour l’élagage.

(Hérité de BoostedTreeOptions)
PruningWindowSize

Taille de la fenêtre mobile pour l’élagage.

(Hérité de BoostedTreeOptions)
RandomStart

L’entraînement commence à partir d’un classement aléatoire (déterminé par /r1).

(Hérité de BoostedTreeOptions)
RowGroupColumnName

Colonne à utiliser par exemple groupId.

(Hérité de TrainerInputBaseWithGroupId)
Seed

Valeur initiale du générateur de nombres aléatoires.

(Hérité de TreeOptions)
Shrinkage

Retrait.

(Hérité de BoostedTreeOptions)
Smoothing

Paramètre de lissage pour la régularisation de l’arborescence.

(Hérité de TreeOptions)
SoftmaxTemperature

Température de la distribution aléatoire softmax pour le choix de la fonctionnalité.

(Hérité de TreeOptions)
SparsifyThreshold

Niveau d’éparse nécessaire pour utiliser la représentation des fonctionnalités éparses.

(Hérité de TreeOptions)
TestFrequency

Calculez les valeurs de métriques pour l’apprentissage/la validité/le test chaque k rounds.

(Hérité de TreeOptions)
UnbalancedSets

Indique s’il faut utiliser des dérivés optimisés pour les données d’entraînement déséquilibrés.

UseLineSearch

Détermine s’il faut utiliser la recherche de ligne pour une taille d’étape.

(Hérité de BoostedTreeOptions)
UseTolerantPruning

Utilisez la fenêtre et la tolérance pour l’élagage.

(Hérité de BoostedTreeOptions)
WriteLastEnsemble

Écrivez le dernier ensemble au lieu de celui déterminé par l’arrêt précoce.

(Hérité de BoostedTreeOptions)

Propriétés

EarlyStoppingMetric

Métriques d’arrêt précoces.

EarlyStoppingRule

Règle d’arrêt anticipée utilisée pour arrêter le processus d’entraînement une fois qu’il répond à un critère spécifié. Les choix possibles sont EarlyStoppingRuleBaseles implémentations de , telles que TolerantEarlyStoppingRule et GeneralityLossRule.

(Hérité de BoostedTreeOptions)

Implémentations d’interfaces explicites

IComponentFactory<ITrainer>.CreateComponent(IHostEnvironment)

Options pour le FastTreeBinaryTrainer tel qu’utilisé dans FastTree(Options).

S’applique à