rxFastTrees: Fast Tree
Aprendizaje automático: Fast Tree
Uso
rxFastTrees(formula = NULL, data, type = c("binary", "regression"),
numTrees = 100, numLeaves = 20, learningRate = 0.2, minSplit = 10,
exampleFraction = 0.7, featureFraction = 1, splitFraction = 1,
numBins = 255, firstUsePenalty = 0, gainConfLevel = 0,
unbalancedSets = FALSE, trainThreads = 8, randomSeed = NULL,
mlTransforms = NULL, mlTransformVars = NULL, rowSelection = NULL,
transforms = NULL, transformObjects = NULL, transformFunc = NULL,
transformVars = NULL, transformPackages = NULL, transformEnvir = NULL,
blocksPerRead = rxGetOption("blocksPerRead"),
reportProgress = rxGetOption("reportProgress"), verbose = 2,
computeContext = rxGetOption("computeContext"),
ensemble = ensembleControl(), ...)
Argumentos
formula
Se refiere a la fórmula tal como se describe en rxFormula. Los términos de interacción y F()
no se admiten actualmente en MicrosoftML.
data
Objeto de origen de datos o cadena de caracteres que especifica un archivo .xdf o un objeto de trama de datos.
type
Cadena de caracteres que especifica el tipo de Fast Tree: "binary"
para la clasificación binaria predeterminada de Fast Tree o "regression"
para la regresión de Fast Tree.
numTrees
Especifica el número total de árboles de decisión que se va a crear en el conjunto. Al crear más árboles de decisión, puede obtener una mejor cobertura, pero el tiempo de entrenamiento aumenta. El valor predeterminado es 100.
numLeaves
Número máximo de hojas (nodos terminales) que se pueden crear en un árbol. Valores más altos pueden aumentar el tamaño del árbol y mejorar la precisión, pero corre el riesgo de sobreajuste y de necesitar tiempos de entrenamiento más prolongados. El valor predeterminado es 20.
learningRate
Determina el tamaño del paso realizado en la dirección del gradiente en cada paso del proceso de aprendizaje. Esto determina la rapidez o lentitud con la que el aprendiz encuentra la solución óptima. Si el tamaño del paso es demasiado grande, puede pasar por alto la solución óptima. Si el tamaño del paso es demasiado pequeño, el entrenamiento tarda más tiempo en conseguir la mejor solución.
minSplit
Número mínimo de instancias de entrenamiento necesarias para formar una hoja. Es decir, el número mínimo de documentos permitidos en una hoja de un árbol de regresión, de los datos de submuestreo. Una división (split) significa que las características de cada nivel del árbol (nodo) se dividen de forma aleatoria. El valor predeterminado es 10. Solo se cuenta el número de instancias, incluso si están ponderadas.
exampleFraction
Fracción de instancias elegidas aleatoriamente que se usarán para cada árbol. El valor predeterminado es 0,7.
featureFraction
Fracción de características elegidas aleatoriamente que se usarán para cada árbol. El valor predeterminado es 1.
splitFraction
Fracción de características elegidas aleatoriamente que se usarán en cada división. El valor predeterminado es 1.
numBins
Número máximo de valores distintos (intervalos) por característica. Si la característica tiene menos valores que el número indicado, cada valor se pone en su propio rango. Si hay más valores, el algoritmo crea numBins
intervalos.
firstUsePenalty
Coeficiente de penalización del primer uso de una característica. Es una forma de regularización que genera una penalización por usar una nueva característica al crear el árbol. Aumente este valor para crear árboles que no usen muchas características. El valor predeterminado es 0.
gainConfLevel
Requisito de confianza de la ganancia de ajuste del árbol (debe estar en el intervalo [0,1)). El valor predeterminado es 0.
unbalancedSets
Si es TRUE
, se usan derivadas optimizadas para conjuntos desequilibrados. Solo es aplicable cuando type
es igual a "binary"
. El valor predeterminado es FALSE
.
trainThreads
Número de subprocesos que se usan en el entrenamiento. El valor predeterminado es 8.
randomSeed
Especifica la inicialización aleatoria. El valor predeterminado es NULL
.
mlTransforms
Especifica una lista de transformaciones de MicrosoftML que deben realizarse en los datos antes del entrenamiento, o bien NULL
si no hay que realizar ninguna transformación. Consulte featurizeText, categorical y categoricalHash para saber cuáles son las transformaciones compatibles. Estas transformaciones se realizan después de cualquier transformación de R especificada. El valor predeterminado es NULL
.
mlTransformVars
Especifica un vector de caracteres de nombres de variable que deben usarse en mlTransforms
, o NULL
si no hay que usar ninguno. El valor predeterminado es NULL
.
rowSelection
Especifica las filas (observaciones) del conjunto de datos que debe usar el modelo con el nombre de una variable lógica del conjunto de datos (entre comillas) o con una expresión lógica que usa variables en el conjunto de datos. Por ejemplo, rowSelection = "old"
solo usará observaciones en las que el valor de la variable old
sea TRUE
. rowSelection = (age > 20) & (age < 65) & (log(income) > 10)
solo usa observaciones en las que el valor de la variable age
está entre 20 y 65, y el valor de log
de la variable income
es mayor que 10. La selección de fila se realiza después de procesar las transformaciones de datos (vea los argumentos transforms
o transformFunc
). Al igual que con todas las expresiones, rowSelection
se puede definir fuera de la llamada de función mediante la función de expresión.
transforms
Expresión del formulario list(name = expression, ``...)
que representa la primera ronda de transformaciones de variables. Al igual que con todas las expresiones, transforms
(o rowSelection
) se puede definir fuera de la llamada de función mediante la función de expresión.
transformObjects
Lista con nombre que contiene objetos a los que pueden hacer referencia transforms
, transformsFunc
y rowSelection
.
transformFunc
Función de transformación de variables. Consulte rxTransform para más detalles.
transformVars
Vector de caracteres de variables del conjunto de datos de entrada necesarias para la función de transformación. Consulte rxTransform para más detalles.
transformPackages
Vector de caracteres que especifica paquetes de R adicionales (aparte de los especificados en rxGetOption("transformPackages")
) que deben cargarse previamente y estar disponibles para usarlos en las funciones de transformación de variables. Por ejemplo, los definidos explícitamente en las funciones de RevoScaleR mediante los argumentos transforms
y transformFunc
, o los definidos implícitamente con los argumentos formula
o rowSelection
. El argumento transformPackages
también puede ser NULL
, que indica que no se cargan previamente más paquetes aparte de los de rxGetOption("transformPackages")
.
transformEnvir
Entorno definido por el usuario que sirve como primario de todos los entornos desarrollados internamente y que se usa para la transformación de datos variables. Si transformEnvir = NULL
, un entorno "hash" nuevo con baseenv()
primario se usa en su lugar.
blocksPerRead
Especifica el número de bloques que se leerán para cada fragmento de datos leídos del origen de datos.
reportProgress
Valor entero que especifica el nivel de notificación del progreso del procesamiento de filas:
0
: no se notifica el progreso.1
: se imprime y actualiza el número de filas procesadas.2
: se notifican las filas procesadas y los intervalos.3
: se notifican las filas procesadas y todos los intervalos.
verbose
Valor entero que especifica la cantidad de salida deseada. Si es 0
, no se imprime ninguna salida detallada durante los cálculos. Los valores enteros de 1
a 4
proporcionan cantidades crecientes de información.
computeContext
Establece el contexto en el que se ejecutan los cálculos, especificado con un RxComputeContext válido. Actualmente, se admiten los contextos de proceso local y RxInSqlServer.
ensemble
Parámetros de control para la formación de conjuntos.
...
Argumentos adicionales que se pasarán directamente al motor de proceso de Microsoft.
Detalles
rxFastTrees es una implementación de FastRank. FastRank es una implementación eficaz del algoritmo de potenciación del gradiente MART. La potenciación del gradiente es una técnica de aprendizaje automático para problemas de regresión. Genera cada árbol de regresión de forma gradual, usando una función de pérdida predefinida para medir el error en cada paso y corregirlo en el siguiente. Por tanto, el modelo de predicción es en realidad un conjunto de modelos de predicción más débiles. En los problemas de regresión, la potenciación genera una serie de árboles por pasos y, después, selecciona el árbol óptimo mediante una función arbitraria de pérdida diferenciable.
MART aprende un conjunto de árboles de regresión, que es un árbol de decisión con valores escalares en las hojas. Un árbol de decisión (o regresión) es un diagrama de flujo de árbol binario, donde, en cada nodo interior, uno decide con cuál de los dos nodos secundarios continuar, en función del valor de una de las características de entrada. En cada nodo hoja, se devuelve un valor. En los nodos interiores, la decisión se basa en la prueba "x <= v"
, donde x
es el valor de la característica en el ejemplo de entrada y v
es uno de los valores posibles de esta característica. Las funciones que puede producir un árbol de regresión son todas las funciones constantes definidas a trozos.
El conjunto de árboles se genera calculando, en cada paso, un árbol de regresión que aproxima el gradiente de la función de pérdida y agregándolo al árbol anterior con coeficientes que minimizan la pérdida del nuevo árbol. La salida del conjunto generado por MART en una instancia determinada es la suma de las salidas del árbol.
Si hay algún problema de clasificación binaria, la salida se convierte en una probabilidad usando alguna forma de calibración.
En el caso de un problema de regresión, la salida es el valor predicho de la función.
Si hay un problema de clasificación, las instancias se ordenan por el valor de salida del conjunto.
Si type
se establece en "regression"
, se usa una versión de regresión de FastTree. Si se establece en "ranking"
, se usa una versión de clasificación de FastTree. En el caso de la clasificación, las instancias deben ordenarse por la salida del conjunto de árboles. La única diferencia en la configuración de estas versiones está en la configuración de la calibración, que solo se necesita para la clasificación.
Value
rxFastTrees
: objeto rxFastTrees
con el modelo entrenado.
FastTree
: objeto de especificación de aprendiz de clase maml
para el instructor de Fast Tree.
Notas
Este algoritmo es multiproceso y siempre intentará cargar todo el conjunto de datos en la memoria.
Autores
Microsoft Corporation Microsoft Technical Support
Referencias
Wikipedia: Gradient boosting (Gradient tree boosting)
Greedy function approximation: A gradient boosting machine.
Consulte también
rxFastForest, rxFastLinear, rxLogisticRegression, rxNeuralNet, rxOneClassSvm, featurizeText, categorical, categoricalHash, rxPredict.mlModel.
Ejemplos
# Estimate a binary classification tree
infert1 <- infert
infert1$isCase = (infert1$case == 1)
treeModel <- rxFastTrees(formula = isCase ~ age + parity + education + spontaneous + induced,
data = infert1)
# Create xdf file with per-instance results using rxPredict
xdfOut <- tempfile(pattern = "scoreOut", fileext = ".xdf")
scoreDS <- rxPredict(treeModel, data = infert1,
extraVarsToWrite = c("isCase", "Score"),
outData = xdfOut)
rxDataStep(scoreDS, numRows = 10)
# Clean-up
file.remove(xdfOut)
######################################################################
# Estimate a regression fast tree
# Use the built-in data set 'airquality' to create test and train data
DF <- airquality[!is.na(airquality$Ozone), ]
DF$Ozone <- as.numeric(DF$Ozone)
randomSplit <- rnorm(nrow(DF))
trainAir <- DF[randomSplit >= 0,]
testAir <- DF[randomSplit < 0,]
airFormula <- Ozone ~ Solar.R + Wind + Temp
# Regression Fast Tree for train data
fastTreeReg <- rxFastTrees(airFormula, type = "regression",
data = trainAir)
# Put score and model variables in data frame
fastTreeScoreDF <- rxPredict(fastTreeReg, data = testAir,
writeModelVars = TRUE)
# Plot actual versus predicted values with smoothed line
rxLinePlot(Score ~ Ozone, type = c("p", "smooth"), data = fastTreeScoreDF)