Поделиться через


HyperParameterTuning - борьба с раком молочной железы

В этом руководстве показано, как использовать SynapseML для определения оптимального сочетания гиперпараметров для выбранных классификаторов, чтобы создать более точные и надежные модели. В этом руководстве показано, как выполнить распределенный случайный перебор сеток для настройки гиперпараметров, чтобы создать модель для идентификации рака молочной железы.

Настройка зависимостей

Импортируйте pandas и настройте сеанс Spark.

import pandas as pd
from pyspark.sql import SparkSession

# Bootstrap Spark Session
spark = SparkSession.builder.getOrCreate()

Прочитайте данные и разделите их на тюнинговые и тестовые множества.

data = spark.read.parquet(
    "wasbs://publicwasb@mmlspark.blob.core.windows.net/BreastCancer.parquet"
).cache()
tune, test = data.randomSplit([0.80, 0.20])
tune.limit(10).toPandas()

Определите модели для использования:

from synapse.ml.automl import TuneHyperparameters
from synapse.ml.train import TrainClassifier
from pyspark.ml.classification import (
    LogisticRegression,
    RandomForestClassifier,
    GBTClassifier,
)

logReg = LogisticRegression()
randForest = RandomForestClassifier()
gbt = GBTClassifier()
smlmodels = [logReg, randForest, gbt]
mmlmodels = [TrainClassifier(model=model, labelCol="Label") for model in smlmodels]

Использование AutoML для поиска оптимальной модели

Импорт классов AutoML SynapseML из synapse.ml.automl. Укажите гиперпараметры с помощью HyperparamBuilder. Добавьте либо DiscreteHyperParam либо RangeHyperParam гиперпараметры. TuneHyperparameters случайным образом выбирает значения из единого распределения:

from synapse.ml.automl import *

paramBuilder = (
    HyperparamBuilder()
    .addHyperparam(logReg, logReg.regParam, RangeHyperParam(0.1, 0.3))
    .addHyperparam(randForest, randForest.numTrees, DiscreteHyperParam([5, 10]))
    .addHyperparam(randForest, randForest.maxDepth, DiscreteHyperParam([3, 5]))
    .addHyperparam(gbt, gbt.maxBins, RangeHyperParam(8, 16))
    .addHyperparam(gbt, gbt.maxDepth, DiscreteHyperParam([3, 5]))
)
searchSpace = paramBuilder.build()
# The search space is a list of params to tuples of estimator and hyperparam
print(searchSpace)
randomSpace = RandomSpace(searchSpace)

Запустите TuneHyperparameters, чтобы получить лучшую модель:

bestModel = TuneHyperparameters(
    evaluationMetric="accuracy",
    models=mmlmodels,
    numFolds=2,
    numRuns=len(mmlmodels) * 2,
    parallelism=1,
    paramSpace=randomSpace.space(),
    seed=0,
).fit(tune)

Оценка модели

Просмотрите параметры лучшей модели и получите базовый конвейер лучших моделей:

print(bestModel.getBestModelInfo())
print(bestModel.getBestModel())

Оценка набора тестов и просмотр метрик:

from synapse.ml.train import ComputeModelStatistics

prediction = bestModel.transform(test)
metrics = ComputeModelStatistics().transform(prediction)
metrics.limit(10).toPandas()