Partager via


FastTreeRankingTrainer.Options Classe

Définition

Options pour le FastTreeRankingTrainer telles qu’utilisées dans FastTree(Options).

public sealed class FastTreeRankingTrainer.Options : Microsoft.ML.Trainers.FastTree.BoostedTreeOptions, Microsoft.ML.Runtime.IComponentFactory<Microsoft.ML.ITrainer>
type FastTreeRankingTrainer.Options = class
    inherit BoostedTreeOptions
    interface IComponentFactory<ITrainer>
    interface IComponentFactory
Public NotInheritable Class FastTreeRankingTrainer.Options
Inherits BoostedTreeOptions
Implements IComponentFactory(Of ITrainer)
Héritage
Implémente
IComponentFactory IComponentFactory<Microsoft.ML.ITrainer>

Constructeurs

FastTreeRankingTrainer.Options()

Créez un FastTreeRankingTrainer.Options objet avec des valeurs par défaut.

Champs

AllowEmptyTrees

Lorsqu’un fractionnement racine est impossible, autorisez l’entraînement à continuer.

(Hérité de TreeOptions)
BaggingExampleFraction

Pourcentage d’exemples d’entraînement utilisés dans chaque sac. La valeur par défaut est 0,7 (70 %).

(Hérité de TreeOptions)
BaggingSize

Nombre d’arborescences dans chaque sac (0 pour la désactivation de l’ensachage).

(Hérité de TreeOptions)
BestStepRankingRegressionTrees

Option permettant d’utiliser les meilleures arborescences d’étapes de régression.

(Hérité de BoostedTreeOptions)
Bias

Biais pour le calcul du gradient pour chaque compartiment de fonctionnalités pour une fonctionnalité catégorielle.

(Hérité de TreeOptions)
Bundling

Regroupez des bacs à faible population. Bundle.None(0) : pas de regroupement, Bundle.AggregateLowPopulation(1) : Group faible population, Bundle.Adjacent(2) : lot de population faible voisin.

(Hérité de TreeOptions)
CategoricalSplit

S’il faut effectuer un fractionnement en fonction de plusieurs valeurs de caractéristiques catégorielles.

(Hérité de TreeOptions)
CompressEnsemble

Compressez l’ensemble d’arborescences.

(Hérité de TreeOptions)
CustomGains

Liste séparée par des virgules des gains associés à chaque étiquette de pertinence.

DiskTranspose

S’il faut utiliser le disque ou les fonctionnalités de transposition natives des données (le cas échéant) lors de l’exécution de la transposition.

(Hérité de TreeOptions)
DropoutRate

Taux de décrochage pour la régularisation de l’arborescence.

(Hérité de BoostedTreeOptions)
EnablePruning

Activez l’élagage d’arbre post-entraînement pour éviter le surajustement. Il nécessite un jeu de validation.

(Hérité de BoostedTreeOptions)
EntropyCoefficient

Coefficient d’entropie (régularisation) compris entre 0 et 1.

(Hérité de TreeOptions)
ExampleWeightColumnName

Colonne à utiliser pour l’exemple de poids.

(Hérité de TrainerInputBaseWithWeight)
ExecutionTime

Imprimer la répartition du temps d’exécution sur ML.NET canal.

(Hérité de TreeOptions)
FeatureColumnName

Colonne à utiliser pour les fonctionnalités.

(Hérité de TrainerInputBase)
FeatureFirstUsePenalty

La caractéristique utilise tout d’abord le coefficient de pénalité.

(Hérité de TreeOptions)
FeatureFlocks

S’il faut collecter des fonctionnalités pendant la préparation du jeu de données pour accélérer l’entraînement.

(Hérité de TreeOptions)
FeatureFraction

Fraction des fonctionnalités (choisies au hasard) à utiliser sur chaque itération. Utilisez 0,9 si seulement 90 % des fonctionnalités sont nécessaires. Des nombres plus faibles permettent de réduire le surajustement.

(Hérité de TreeOptions)
FeatureFractionPerSplit

Fraction des fonctionnalités (choisies au hasard) à utiliser sur chaque fractionnement. Si la valeur est 0,9, 90 % de toutes les fonctionnalités seraient supprimées dans l’attente.

(Hérité de TreeOptions)
FeatureReusePenalty

Coefficient de pénalité de réutilisation de fonctionnalité (régularisation).

(Hérité de TreeOptions)
FeatureSelectionSeed

Seed de la sélection de fonctionnalité active.

(Hérité de TreeOptions)
FilterZeroLambdas

Filtrez zéro lambda pendant l’entraînement.

(Hérité de BoostedTreeOptions)
GainConfidenceLevel

L’ajustement d’arborescence gagne en confiance. Considérez uniquement un gain si sa probabilité par rapport à un gain de choix aléatoire est supérieure à cette valeur.

(Hérité de TreeOptions)
GetDerivativesSampleRate

Échantillonner chaque requête 1 en k fois dans la fonction GetDerivatives.

(Hérité de BoostedTreeOptions)
HistogramPoolSize

Nombre d’histogrammes dans le pool (entre 2 et numLeaves).

(Hérité de TreeOptions)
LabelColumnName

Colonne à utiliser pour les étiquettes.

(Hérité de TrainerInputBaseWithLabel)
LearningRate

Taux d’apprentissage.

(Hérité de BoostedTreeOptions)
MaximumBinCountPerFeature

Nombre maximal de valeurs distinctes (emplacements) par caractéristique.

(Hérité de TreeOptions)
MaximumCategoricalGroupCountPerNode

Nombre maximal de groupes de fractionnements catégoriels à prendre en compte lors du fractionnement sur une fonctionnalité catégorielle. Les groupes fractionnés sont une collection de points de fractionnement. Cela permet de réduire le surajustement lorsqu’il existe de nombreuses fonctionnalités catégorielles.

(Hérité de TreeOptions)
MaximumCategoricalSplitPointCount

Nombre maximal de points de fractionnement catégoriels à prendre en compte lors du fractionnement sur une fonctionnalité catégorielle.

(Hérité de TreeOptions)
MaximumNumberOfLineSearchSteps

Nombre d’étapes de recherche de ligne entre crochets.

(Hérité de BoostedTreeOptions)
MaximumTreeOutput

Limite supérieure sur la valeur absolue de la sortie d’arborescence unique.

(Hérité de BoostedTreeOptions)
MemoryStatistics

Imprimez les statistiques de mémoire sur ML.NET canal.

(Hérité de TreeOptions)
MinimumExampleCountPerLeaf

Nombre minimal de points de données requis pour former une nouvelle feuille d’arborescence.

(Hérité de TreeOptions)
MinimumExampleFractionForCategoricalSplit

Pourcentage d’exemple catégoriel minimal dans un bac à prendre en compte pour un fractionnement. La valeur par défaut est de 0,1 % de tous les exemples d’entraînement.

(Hérité de TreeOptions)
MinimumExamplesForCategoricalSplit

Nombre minimal d’exemples catégoriels dans un bac à prendre en compte pour un fractionnement.

(Hérité de TreeOptions)
MinimumStepSize

Taille minimale de l’étape de recherche de ligne.

(Hérité de BoostedTreeOptions)
NdcgTruncationLevel

Troncation NDCG maximale à utiliser dans l’algorithme LambdaMAR.

NumberOfLeaves

Nombre maximal de feuilles dans chaque arborescence de régression.

(Hérité de TreeOptions)
NumberOfThreads

Nombre de threads à utiliser.

(Hérité de TreeOptions)
NumberOfTrees

Nombre total d’arborescences de décision à créer dans l’ensemble.

(Hérité de TreeOptions)
OptimizationAlgorithm

Algorithme d’optimisation à utiliser.

(Hérité de BoostedTreeOptions)
PruningThreshold

Seuil de tolérance pour l’élagage.

(Hérité de BoostedTreeOptions)
PruningWindowSize

Taille de fenêtre mobile pour l’élagage.

(Hérité de BoostedTreeOptions)
RandomStart

L’entraînement commence à partir d’un classement aléatoire (déterminé par /r1).

(Hérité de BoostedTreeOptions)
RowGroupColumnName

Colonne à utiliser par exemple groupId.

(Hérité de TrainerInputBaseWithGroupId)
Seed

Seed du générateur de nombres aléatoires.

(Hérité de TreeOptions)
Shrinkage

Retrait.

(Hérité de BoostedTreeOptions)
Smoothing

Paramètre de lissage pour la régularisation de l’arborescence.

(Hérité de TreeOptions)
SoftmaxTemperature

Température de la distribution softmax aléatoire pour le choix de la fonctionnalité.

(Hérité de TreeOptions)
SparsifyThreshold

Niveau d’éparse nécessaire pour utiliser la représentation des caractéristiques éparses.

(Hérité de TreeOptions)
TestFrequency

Calculez les valeurs de métriques pour l’apprentissage/la validité/le test de chaque série k.

(Hérité de TreeOptions)
UseDcg

S’il faut effectuer l’apprentissage à l’aide du gain cumulé réduit (DCG) au lieu de DCG normalisé (NDCG).

UseLineSearch

Détermine s’il faut utiliser la recherche en ligne pour une taille d’étape.

(Hérité de BoostedTreeOptions)
UseTolerantPruning

Utilisez la fenêtre et la tolérance pour l’élagage.

(Hérité de BoostedTreeOptions)
WriteLastEnsemble

Écrivez le dernier ensemble au lieu de celui déterminé par l’arrêt précoce.

(Hérité de BoostedTreeOptions)

Propriétés

EarlyStoppingMetric

Métriques d’arrêt précoces.

EarlyStoppingRule

Règle d’arrêt précoce utilisée pour mettre fin au processus d’entraînement une fois qu’elle répond à un critère spécifié. Les choix possibles sont EarlyStoppingRuleBaseles implémentations de telles que TolerantEarlyStoppingRule et GeneralityLossRule.

(Hérité de BoostedTreeOptions)

Implémentations d’interfaces explicites

IComponentFactory<ITrainer>.CreateComponent(IHostEnvironment)

Options pour le FastTreeRankingTrainer telles qu’utilisées dans FastTree(Options).

S’applique à