KnownClassificationModels enum
I valori noti di ClassificationModels accettati dal servizio.
Campi
| BernoulliNaiveBayes | Classificatore Naive Bayes per modelli Bernoulli multivariati. |
| DecisionTree | Gli alberi delle decisioni sono un metodo di apprendimento con supervisione non parametrica usato per le attività di classificazione e regressione. L'obiettivo è creare un modello che stima il valore di una variabile di destinazione apprendendo semplici regole decisionali dedotte dalle funzionalità dei dati. |
| ExtremeRandomTrees | Extreme Trees è un algoritmo di Machine Learning di insieme che combina le stime di molti alberi delle decisioni. È correlato all'algoritmo di foresta casuale ampiamente usato. |
| GradientBoosting | La tecnica di transito degli studenti delle settimane in un forte apprendimento è chiamata Boosting. Il processo dell'algoritmo di boosting sfumatura funziona su questa teoria dell'esecuzione. |
| KNN | L'algoritmo K-nearest neighbors (KNN) usa la "somiglianza delle caratteristiche" per stimare i valori dei nuovi punti dati, il che significa che al nuovo punto dati verrà assegnato un valore in base al livello di corrispondenza dei punti nel set di training. |
| LightGBM | LightGBM è un framework di boosting delle sfumature che usa algoritmi di apprendimento basati su albero. |
| LinearSVM | Una macchina a vettori di supporto (SVM) è un modello di Machine Learning supervisionato che usa algoritmi di classificazione per problemi di classificazione a due gruppi. Dopo aver dato a un set di modelli SVM di dati di training etichettati per ogni categoria, è possibile classificare il nuovo testo. Linear SVM offre prestazioni ottimali quando i dati di input sono lineari, ovvero i dati possono essere facilmente classificati disegnando la linea retta tra valori classificati in un grafico tracciato. |
| LogisticRegression | La regressione logistica è una tecnica di classificazione fondamentale. Appartiene al gruppo di classificatori lineari ed è in qualche modo simile alla regressione polinomiale e lineare. La regressione logistica è veloce e relativamente non complicata ed è utile interpretare i risultati. Anche se si tratta essenzialmente di un metodo per la classificazione binaria, può anche essere applicato a problemi multiclasse. |
| MultinomialNaiveBayes | Il classificatore Naive Bayes multinomiale è adatto per la classificazione con caratteristiche discrete (ad esempio, conteggi di parole per la classificazione del testo). La distribuzione multinomiale richiede in genere conteggi di caratteristiche integer. Tuttavia, in pratica, anche i conteggi frazionari, ad esempio tf-idf, possono funzionare. |
| RandomForest | La foresta casuale è un algoritmo di apprendimento supervisionato. La "foresta" che compila, è un insieme di alberi delle decisioni, di solito addestrati con il metodo "bagging". L'idea generale del metodo di bagging è che una combinazione di modelli di apprendimento aumenta il risultato complessivo. |
| SGD | SGD: la discesa del gradiente stocastico è un algoritmo di ottimizzazione spesso usato nelle applicazioni di Machine Learning per trovare i parametri del modello che corrispondono alla migliore corrispondenza tra output stimati e effettivi. |
| SVM | Una macchina a vettori di supporto (SVM) è un modello di Machine Learning supervisionato che usa algoritmi di classificazione per problemi di classificazione a due gruppi. Dopo aver dato a un set di modelli SVM di dati di training etichettati per ogni categoria, è possibile classificare il nuovo testo. |
| XGBoostClassifier | XGBoost: algoritmo di boosting gradiente estremo. Questo algoritmo viene usato per i dati strutturati in cui i valori delle colonne di destinazione possono essere divisi in valori di classe distinti. |