ClassificationModels type
Definisce i valori per ClassificationModels.
KnownClassificationModels può essere usato in modo intercambiabile con ClassificationModels, questa enumerazione contiene i valori noti supportati dal servizio.
Valori noti supportati dal servizio
LogisticRegression: la regressione logistica è una tecnica di classificazione fondamentale.
Appartiene al gruppo di classificatori lineari ed è in qualche modo simile alla regressione polinomiale e lineare.
La regressione logistica è veloce e relativamente non complicata ed è utile interpretare i risultati.
Anche se si tratta essenzialmente di un metodo per la classificazione binaria, può anche essere applicato a problemi multiclasse.
SGD: SGD: discesa del gradiente stocastico è un algoritmo di ottimizzazione spesso usato nelle applicazioni di Machine Learning per trovare i parametri del modello che corrispondono alla scelta migliore tra output stimati e effettivi.
MultinomialNaiveBayes: il classificatore Naive Bayes multinomiale è adatto per la classificazione con caratteristiche discrete (ad esempio, i conteggi delle parole per la classificazione del testo).
La distribuzione multinomiale richiede in genere conteggi di caratteristiche integer. Tuttavia, in pratica, anche i conteggi frazionari, ad esempio tf-idf, possono funzionare.
BernoulliNaiveBayes: classificatore Naive Bayes per modelli Bernoulli multivariati.
SVM: una macchina a vettori di supporto (SVM) è un modello di Machine Learning supervisionato che usa algoritmi di classificazione per problemi di classificazione a due gruppi.
Dopo aver dato a un set di modelli SVM di dati di training etichettati per ogni categoria, è possibile classificare il nuovo testo.
LinearSVM: una macchina a vettori di supporto (SVM) è un modello di Machine Learning supervisionato che usa algoritmi di classificazione per problemi di classificazione a due gruppi.
Dopo aver dato a un set di modelli SVM di dati di training etichettati per ogni categoria, è possibile classificare il nuovo testo.
Linear SVM offre prestazioni ottimali quando i dati di input sono lineari, ovvero i dati possono essere facilmente classificati disegnando la linea retta tra valori classificati in un grafico tracciato.
KNN: all'algoritmo K-nearest neighbors (KNN) viene usata la "somiglianza delle caratteristiche" per stimare i valori dei nuovi punti dati, il che significa che al nuovo punto dati verrà assegnato un valore in base al livello di corrispondenza dei punti nel set di training.
DecisionTree: gli alberi delle decisioni sono un metodo di apprendimento con supervisione non parametrica usato per le attività di classificazione e regressione.
L'obiettivo è creare un modello che stima il valore di una variabile di destinazione apprendendo semplici regole decisionali dedotte dalle funzionalità dei dati.
randomforest: la foresta casuale è un algoritmo di apprendimento supervisionato.
La "foresta" che compila, è un insieme di alberi delle decisioni, di solito addestrati con il metodo "bagging".
L'idea generale del metodo di bagging è che una combinazione di modelli di apprendimento aumenta il risultato complessivo.
ExtremeRandomTrees: Extreme Trees è un algoritmo di Machine Learning di insieme che combina le stime di molti alberi delle decisioni. È correlato all'algoritmo di foresta casuale ampiamente usato.
LightGBM: LightGBM è un framework di boosting delle sfumature che usa algoritmi di apprendimento basati su albero.
GradientBoosting: la tecnica di transito degli studenti delle settimane in un forte apprendimento è denominata Boosting. Il processo dell'algoritmo di boosting sfumatura funziona su questa teoria dell'esecuzione.
XGBoostClassifier: XGBoost: Algoritmo di boosting gradiente estremo. Questo algoritmo viene usato per i dati strutturati in cui i valori delle colonne di destinazione possono essere divisi in valori di classe distinti.
type ClassificationModels = string