microsoftml.rx_logistic_regression: regresión logística
Uso
microsoftml.rx_logistic_regression(formula: str,
data: [revoscalepy.datasource.RxDataSource.RxDataSource,
pandas.core.frame.DataFrame], method: ['binary',
'multiClass'] = 'binary', l2_weight: float = 1,
l1_weight: float = 1, opt_tol: float = 1e-07,
memory_size: int = 20, init_wts_diameter: float = 0,
max_iterations: int = 2147483647,
show_training_stats: bool = False, sgd_init_tol: float = 0,
train_threads: int = None, dense_optimizer: bool = False,
normalize: ['No', 'Warn', 'Auto', 'Yes'] = 'Auto',
ml_transforms: list = None, ml_transform_vars: list = None,
row_selection: str = None, transforms: dict = None,
transform_objects: dict = None, transform_function: str = None,
transform_variables: list = None,
transform_packages: list = None,
transform_environment: dict = None, blocks_per_read: int = None,
report_progress: int = None, verbose: int = 1,
ensemble: microsoftml.modules.ensemble.EnsembleControl = None,
compute_context: revoscalepy.computecontext.RxComputeContext.RxComputeContext = None)
Descripción
Regresión logística en el aprendizaje automático
Detalles
La regresión logística es un método de clasificación que se usa para predecir el valor de una variable dependiente categórica a partir de su relación con una o más variables independientes que se supone que tienen una distribución logística. Si la variable dependiente solo tiene dos valores posibles (correcto/incorrecto), la regresión logística es binaria. Si la variable dependiente tiene más de dos valores posibles (grupo sanguíneo según los resultados de una prueba diagnóstica), la regresión logística es multinomial.
La técnica de optimización que se usa para rx_logistic_regression
es la memoria limitada Broyden-Fletcher-Goldfarb-Shanno (L-BFGS). Los algoritmos L-BFGS y BFGS normal usan métodos casi newtonianos para calcular la matriz hessiana de uso intensivo de recursos de proceso en la ecuación usada por el método de Newton para calcular los pasos. Pero la aproximación L-BFGS utiliza solo una cantidad limitada de memoria para calcular la dirección del siguiente paso, por lo que está especialmente indicada para problemas con un gran número de variables. El parámetro memory_size
especifica el número de posiciones anteriores y gradientes que deben almacenarse para el cálculo del siguiente paso.
Este aprendiz puede usar la regularización de red elástica, que es una combinación lineal de las regularizaciones L1 (lazo) y L2 (cresta). La regularización es un método que puede hacer que un problema mal planteado sea más manejable imponiendo restricciones que proporcionan información para complementar los datos y que evita el sobreajuste mediante la penalización de modelos con valores de coeficiente extremos. Esto puede mejorar la generalización del modelo aprendido seleccionando la complejidad óptima en el equilibrio entre sesgo y varianza. La regularización funciona agregando la penalización asociada a los valores de coeficiente al error de la hipótesis. Un modelo preciso con valores de coeficiente extremos se penalizaría más, y un modelo menos preciso con valores más conservadores se penalizaría menos. Las regularizaciones L1 y L2 tienen efectos y usos diferentes que son complementarios en ciertos aspectos.
l1_weight
: se puede aplicar a modelos dispersos, cuando se trabaja con datos de alta dimensionalidad. Extrae a 0 las características asociadas a pesos pequeños que son relativamente insignificantes.l2_weight
: es preferible para los datos que no están dispersos. Extrae los pesos grandes a cero.
Agregar la penalización de cresta a la regularización soluciona algunas de las limitaciones de la opción de lazo. Puede mejorar su precisión predictiva, por ejemplo, cuando el número de predictores es mayor que el tamaño de la muestra.
Si x = l1_weight
y y = l2_weight
, entonces ax + by = c
define el intervalo lineal de los términos de la regularización. El valor predeterminado de x e y es 1
en ambos casos. Una regularización agresiva puede dañar la capacidad predictiva al excluir variables importantes del modelo. Por tanto, elegir los valores óptimos para los parámetros de la regularización es importante de cara al rendimiento del modelo de regresión logística.
Argumentos
formula
La fórmula como se describe en revoscalepy.rx_formula. Los términos de interacción y F()
no se admiten actualmente en microsoftml.
datos
Objeto de origen de datos o cadena de caracteres que especifica un archivo .xdf o un objeto de trama de datos.
método
Cadena de caracteres que especifica el tipo de regresión logística: "binary"
para la regresión logística de clasificación binaria predeterminada, o "multiClass"
para la regresión logística multinomial.
l2_weight
Peso de la regularización L2. Su valor debe ser mayor o igual que 0
y el valor predeterminado se establece en 1
.
l1_weight
Peso de la regularización L1. Su valor debe ser mayor o igual que 0
y el valor predeterminado se establece en 1
.
opt_tol
Umbral de convergencia del optimizador. Si la mejora entre las iteraciones es menor que el umbral, el algoritmo se detiene y devuelve el modelo actual. Los valores más pequeños son más lentos, pero más precisos.
El valor predeterminado es 1e-07
.
memory_size
El tamaño de la memoria para L-BFGS indica el número de posiciones anteriores y gradientes que deben almacenarse para el cálculo del siguiente paso. Este parámetro de optimización limita la cantidad de memoria que se usa para calcular la magnitud y la dirección del siguiente paso. Cuando especifica menos memoria, el entrenamiento es más rápido, pero menos preciso. Debe ser mayor o igual que 1
y el valor predeterminado se establece en 20
.
max_iterations
Establece el número máximo de iteraciones. Después de este número de pasos, el algoritmo se detiene incluso si no ha cumplido los criterios de convergencia.
show_training_stats
Especifique True
para mostrar las estadísticas de los datos de entrenamiento y el modelo entrenado; de lo contrario, especifique False
. El valor predeterminado es False
. Para obtener más información sobre las estadísticas de los modelos, vea summary.ml_model()
.
sgd_init_tol
Especifique un número mayor que 0 para usar el descenso del gradiente estocástico (SGD) con el fin de buscar los parámetros iniciales. Un conjunto de valores distinto de cero especifica la tolerancia que SGD usa para determinar la convergencia.
El valor predeterminado es 0
, que indica que no se use SGD.
init_wts_diameter
Establece el diámetro de pesos inicial que especifica el intervalo desde el que se dibujan los valores para los pesos iniciales. Estos pesos se inicializan aleatoriamente desde este intervalo. Por ejemplo, si se especifica que el diámetro es d
, los pesos se distribuyen uniformemente entre -d/2
y d/2
. El valor predeterminado es 0
, que especifica que todos los pesos se inicializan en 0
.
train_threads
Número de subprocesos que se usan en el entrenamiento del modelo.
Debe establecerse en el número de núcleos de la máquina. Tenga en cuenta que la funcionalidad multithreading de L-BFGS intenta cargar el conjunto de datos en la memoria. En el caso de que no haya memoria suficiente, establezca train_threads
en 1
para desactivar la funcionalidad multithreading. Si se especifica None, el número de subprocesos que se usa se determina internamente. El valor predeterminado es None.
dense_optimizer
Si es True
, fuerza la densificación de los vectores de optimización internos. Si es False
, habilita el optimizador de la regresión logística y usa los estados internos disperso o denso según lo considere apropiado.
Si denseOptimizer
se establece en True
, el optimizador interno debe usar el estado interno denso, que puede ayudar a mitigar la carga en el recolector de elementos no utilizados para algunos tipos de problemas mayores.
normalize
Especifica el tipo de normalización automática que se usa:
"Auto"
: si la normalización es necesaria, se realiza automáticamente. Esta es la opción predeterminada."No"
: no se realiza ninguna normalización."Yes"
: se lleva a cabo la normalización."Warn"
: si la normalización es necesaria, se muestra un mensaje de advertencia, pero no se lleva a cabo la normalización.
La normalización aplica una escala estándar a intervalos de datos dispares. El escalado de características asegura que las distancias entre los puntos de datos sean proporcionales y permite que varios métodos de optimización, como el descenso del gradiente, converjan mucho más rápido. Si se lleva a cabo la normalización, se usa un normalizador MaxMin
. Normaliza los valores de un intervalo [a, b], donde -1 <= a <= 0
, 0 <= b <= 1
y b - a = 1
. Este normalizador mantiene la dispersión asignando cero a cero.
ml_transforms
Especifica una lista de transformaciones de MicrosoftML que deben realizarse en los datos antes del entrenamiento, o bien None si no hay que realizar ninguna transformación. Vea featurize_text
, categorical
y categorical_hash
para saber las transformaciones que se admiten.
Estas transformaciones se realizan después de cualquier transformación de Python especificada.
El valor predeterminado es None.
ml_transform_vars
Especifica un vector de caracteres de nombres de variable que deben usarse en ml_transforms
, o bien None si no hay que usar ninguno.
El valor predeterminado es None.
row_selection
NO ADMITIDO. Especifica las filas (observaciones) del conjunto de datos que debe usar el modelo con el nombre de una variable lógica del conjunto de datos (entre comillas) o con una expresión lógica que usa variables en el conjunto de datos. Por ejemplo:
row_selection = "old"
solo usará observaciones en las que el valor de la variableold
seaTrue
.row_selection = (age > 20) & (age < 65) & (log(income) > 10)
solo usa observaciones en las que el valor de la variableage
está entre 20 y 65, y el valor delog
de la variableincome
es mayor que 10.
La selección de fila se realiza después de procesar las transformaciones de datos (vea los argumentos transforms
o transform_function
). Al igual que con todas las expresiones, row_selection
se puede definir fuera de la llamada de función mediante la función expression
.
transformaciones
NO ADMITIDO. Expresión del formulario que representa la primera ronda de transformaciones de variables. Al igual que con todas las expresiones, transforms
(o row_selection
) se puede definir fuera de la llamada de función mediante la función expression
.
transform_objects
NO ADMITIDO. Lista con nombre que contiene objetos a los que pueden hacer referencia transforms
, transform_function
y row_selection
.
transform_function
Función de transformación de variables.
transform_variables
Vector de caracteres de variables del conjunto de datos de entrada necesarias para la función de transformación.
transform_packages
NO ADMITIDO. Vector de caracteres que especifica paquetes de Python adicionales (aparte de los especificados en RxOptions.get_option("transform_packages")
) que deben cargarse previamente y estar disponibles para usarlos en las funciones de transformación de variables.
Por ejemplo, los definidos explícitamente en las funciones de revoscalepy mediante los argumentos transforms
y transform_function
, o los definidos implícitamente con los argumentos formula
y row_selection
. El argumento transform_packages
también puede ser None, que indica que no se cargan previamente más paquetes aparte de los de RxOptions.get_option("transform_packages")
.
transform_environment
NO ADMITIDO. Entorno definido por el usuario que sirve como primario de todos los entornos desarrollados internamente y que se usa para la transformación de datos variables.
Si es transform_environment = None
, se usa un nuevo entorno "hash" con revoscalepy.baseenv como primario.
blocks_per_read
Especifica el número de bloques que se leerán para cada fragmento de datos leídos del origen de datos.
report_progress
Valor entero que especifica el nivel de notificación del progreso del procesamiento de filas:
0
: no se notifica el progreso.1
: se imprime y actualiza el número de filas procesadas.2
: se notifican las filas procesadas y los intervalos.3
: se notifican las filas procesadas y todos los intervalos.
verbose
Valor entero que especifica la cantidad de salida deseada.
Si es 0
, no se imprime ninguna salida detallada durante los cálculos. Los valores enteros de 1
a 4
proporcionan cantidades crecientes de información.
compute_context
Establece el contexto en el que se ejecutan los cálculos, especificado con revoscalepy.RxComputeContext. Actualmente, se admiten los contextos de proceso local y revoscalepy.RxInSqlServer.
ensemble
Parámetros de control para la formación de conjuntos.
Devoluciones
Objeto LogisticRegression
con el modelo entrenado.
Nota
Este algoritmo intentará cargar todo el conjunto de datos en la memoria cuando se use train_threads > 1
(multithreading).
Vea también
Referencias
Wikipedia: Regresión logística
Entrenamiento escalable de modelos logísticos lineales con regularización L1
Serie de pruebas: Regularizaciones L1 y L2 para aprendizaje automático
Ejemplo de clasificación binaria
'''
Binary Classification.
'''
import numpy
import pandas
from microsoftml import rx_logistic_regression, rx_predict
from revoscalepy.etl.RxDataStep import rx_data_step
from microsoftml.datasets.datasets import get_dataset
infert = get_dataset("infert")
import sklearn
if sklearn.__version__ < "0.18":
from sklearn.cross_validation import train_test_split
else:
from sklearn.model_selection import train_test_split
infertdf = infert.as_df()
infertdf["isCase"] = infertdf.case == 1
data_train, data_test, y_train, y_test = train_test_split(infertdf, infertdf.isCase)
model = rx_logistic_regression(
formula=" isCase ~ age + parity + education + spontaneous + induced ",
data=data_train)
print(model.coef_)
# RuntimeError: The type (RxTextData) for file is not supported.
score_ds = rx_predict(model, data=data_test,
extra_vars_to_write=["isCase", "Score"])
# Print the first five rows
print(rx_data_step(score_ds, number_rows_read=5))
Salida:
Automatically adding a MinMax normalization transform, use 'norm=Warn' or 'norm=No' to turn this behavior off.
Beginning processing data.
Rows Read: 186, Read Time: 0, Transform Time: 0
Beginning processing data.
Beginning processing data.
Rows Read: 186, Read Time: 0.001, Transform Time: 0
Beginning processing data.
Beginning processing data.
Rows Read: 186, Read Time: 0, Transform Time: 0
Beginning processing data.
LBFGS multi-threading will attempt to load dataset into memory. In case of out-of-memory issues, turn off multi-threading by setting trainThreads to 1.
Beginning optimization
num vars: 6
improvement criterion: Mean Improvement
L1 regularization selected 5 of 6 weights.
Not training a calibrator because it is not needed.
Elapsed time: 00:00:00.0646405
Elapsed time: 00:00:00.0083991
OrderedDict([('(Bias)', -1.2366217374801636), ('spontaneous', 1.9391206502914429), ('induced', 0.7497404217720032), ('parity', -0.31517016887664795), ('age', -3.162723260174971e-06)])
Beginning processing data.
Rows Read: 62, Read Time: 0, Transform Time: 0
Beginning processing data.
Elapsed time: 00:00:00.0287290
Finished writing 62 rows.
Writing completed.
Rows Read: 5, Total Rows Processed: 5, Total Chunk Time: 0.001 seconds
isCase PredictedLabel Score Probability
0 False False -1.341681 0.207234
1 True True 0.597440 0.645070
2 False True 0.544912 0.632954
3 False False -1.289152 0.215996
4 False False -1.019339 0.265156
Ejemplo de clasificación multiclase
'''
MultiClass Classification
'''
import numpy
import pandas
from microsoftml import rx_logistic_regression, rx_predict
from revoscalepy.etl.RxDataStep import rx_data_step
from microsoftml.datasets.datasets import get_dataset
iris = get_dataset("iris")
import sklearn
if sklearn.__version__ < "0.18":
from sklearn.cross_validation import train_test_split
else:
from sklearn.model_selection import train_test_split
irisdf = iris.as_df()
irisdf["Species"] = irisdf["Species"].astype("category")
data_train, data_test, y_train, y_test = train_test_split(irisdf, irisdf.Species)
model = rx_logistic_regression(
formula=" Species ~ Sepal_Length + Sepal_Width + Petal_Length + Petal_Width ",
method="multiClass",
data=data_train)
print(model.coef_)
# RuntimeError: The type (RxTextData) for file is not supported.
score_ds = rx_predict(model, data=data_test,
extra_vars_to_write=["Species", "Score"])
# Print the first five rows
print(rx_data_step(score_ds, number_rows_read=5))
Salida:
Automatically adding a MinMax normalization transform, use 'norm=Warn' or 'norm=No' to turn this behavior off.
Beginning processing data.
Rows Read: 112, Read Time: 0, Transform Time: 0
Beginning processing data.
Beginning processing data.
Rows Read: 112, Read Time: 0, Transform Time: 0
Beginning processing data.
Beginning processing data.
Rows Read: 112, Read Time: 0, Transform Time: 0
Beginning processing data.
LBFGS multi-threading will attempt to load dataset into memory. In case of out-of-memory issues, turn off multi-threading by setting trainThreads to 1.
Beginning optimization
num vars: 15
improvement criterion: Mean Improvement
L1 regularization selected 9 of 15 weights.
Not training a calibrator because it is not needed.
Elapsed time: 00:00:00.0493224
Elapsed time: 00:00:00.0080558
OrderedDict([('setosa+(Bias)', 2.074636697769165), ('versicolor+(Bias)', 0.4899507164955139), ('virginica+(Bias)', -2.564580202102661), ('setosa+Petal_Width', -2.8389241695404053), ('setosa+Petal_Length', -2.4824044704437256), ('setosa+Sepal_Width', 0.274869441986084), ('versicolor+Sepal_Width', -0.2645561397075653), ('virginica+Petal_Width', 2.6924400329589844), ('virginica+Petal_Length', 1.5976412296295166)])
Beginning processing data.
Rows Read: 38, Read Time: 0, Transform Time: 0
Beginning processing data.
Elapsed time: 00:00:00.0331861
Finished writing 38 rows.
Writing completed.
Rows Read: 5, Total Rows Processed: 5, Total Chunk Time: 0.001 seconds
Species Score.0 Score.1 Score.2
0 virginica 0.044230 0.364927 0.590843
1 setosa 0.767412 0.210586 0.022002
2 setosa 0.756523 0.221933 0.021543
3 setosa 0.767652 0.211191 0.021157
4 versicolor 0.116369 0.498615 0.385016