microsoftml.featurize_text: converte le colonne di testo in caratteristiche numeriche
Utilizzo
microsoftml.featurize_text(cols: [str, dict, list], language: ['AutoDetect',
'English', 'French', 'German', 'Dutch', 'Italian', 'Spanish',
'Japanese'] = 'English', stopwords_remover=None, case: ['Lower',
'Upper', 'None'] = 'Lower', keep_diacritics: bool = False,
keep_punctuations: bool = True, keep_numbers: bool = True,
dictionary: dict = None, word_feature_extractor={'Name': 'NGram',
'Settings': {'Weighting': 'Tf', 'MaxNumTerms': [10000000],
'NgramLength': 1, 'AllLengths': True, 'SkipLength': 0}},
char_feature_extractor=None, vector_normalizer: ['None', 'L1', 'L2',
'LInf'] = 'L2', **kargs)
Descrizione
Trasformazione testuale che può essere eseguita sui dati prima di eseguire il training di un modello.
Dettagli
La trasformazione featurize_text
produce un contenitore di conteggi di sequenze di parole consecutive, denominate n-grammi, da un determinato corpus di testo.
Questa operazione può essere eseguita in due modi:
creare un dizionario di n-grammi e usare l'ID nel dizionario come indice nel contenitore;
eseguire l'hash di ogni n-grammo e usare il valore hash come indice nel contenitore.
Lo scopo dell'hashing consiste nel convertire documenti di testo di lunghezza variabile in vettori di funzioni numeriche di lunghezza uguale per supportare la riduzione della dimensionalità e accelerare la ricerca dei pesi delle funzioni.
La trasformazione di testo viene applicata alle colonne di input di testo. Offre rilevamento della lingua, tokenizzazione, rimozione di parole non significative, normalizzazione del testo e generazione di caratteristiche. Supporta le lingue seguenti per impostazione predefinita: inglese, francese, tedesco, olandese, italiano, spagnolo e giapponese.
Gli n-grammi sono rappresentati come vettori di conteggio, con slot vettoriali corrispondenti a n-grammi (creati usando n_gram
) o agli hash (creati usando n_gram_hash
). L'incorporamento di n-grammi in uno spazio vettoriale consente di confrontare il contenuto in modo efficiente.
I valori dello slot nel vettore possono essere ponderati in base ai fattori seguenti:
frequenza termini : numero di occorrenze dello slot nel testo
frequenza inversa del documento : rapporto (logaritmo della frequenza di slot relativa inversa) che misura le informazioni fornite da uno slot determinando quanto sia comune o raro nell'intero testo.
frequenza del documento inversa della frequenza dei termini: frequenza del termine del prodotto e frequenza inversa del documento.
Argomenti
cols
Stringa di caratteri o elenco di nomi di variabili da trasformare. Se dict
, le chiavi rappresentano i nomi delle nuove variabili da creare.
Linguaggio
Specifica la lingua usata nel set di dati. Sono supportati i valori seguenti:
"AutoDetect"
: per il rilevamento automatico della lingua."English"
"French"
"German"
"Dutch"
"Italian"
"Spanish"
"Japanese"
stopwords_remover
Specifica la funzione di rimozione di parole non significative da usare. Sono supportate tre opzioni:
None: non viene usata alcuna funzione di rimozione di parole non significative.
predefined
: viene usato un elenco precompilato di parole non significative specifico per la lingua che include le parole più comuni di Microsoft Office.custom
: elenco definito dall'utente di parole non significative. Accetta l'opzione seguente:stopword
.
Il valore predefinito è None.
case
Maiuscole e minuscole usando le regole delle impostazioni cultura inglese non dipendenti da paese/area geografica. Accetta i valori seguenti:
"Lower"
"Upper"
"None"
Il valore predefinito è "Lower"
.
keep_diacritics
False
per rimuovere i segni diacritici; True
per mantenerli. Il valore predefinito è False
.
keep_punctuations
False
per rimuovere la punteggiatura; True
per mantenerla. Il valore predefinito è True
.
keep_numbers
False
per rimuovere i numeri; True
per conservarli. Il valore predefinito è True
.
dictionary
Dizionario di termini consentiti che accetta le opzioni seguenti:
term
: vettore di caratteri facoltativo di termini o categorie.dropUnknowns
: eliminazione elementisort
: specifica come ordinare gli elementi in caso di vettorizzazione. Sono supportati due ordini:-
"occurrence"
: gli elementi vengono visualizzati nell'ordine rilevato. -
"value"
: gli elementi vengono ordinati in base al confronto predefinito. Ad esempio, l'ordinamento del testo farà distinzione tra maiuscole e minuscole, ad esempio 'A' quindi 'Z' quindi 'a'.
-
Il valore predefinito è None. Si noti che l'elenco di parole non significative ha la precedenza sull'elenco di elementi consentiti del dizionario perché le parole non significative vengono rimosse prima che vengano elencate le condizioni del dizionario.
word_feature_extractor
Specifica gli argomenti di estrazione delle caratteristiche delle parole. Esistono due diversi meccanismi di estrazione delle caratteristiche:
n_gram()
: estrazione delle caratteristiche basata sul conteggio (equivalente a WordBag). Accetta le opzioni seguenti:max_num_terms
eweighting
.n_gram_hash()
: estrazione delle caratteristiche basata su hashing (equivalente a WordHashBag). Accetta le opzioni seguenti:hash_bits
,seed
,ordered
einvert_hash
.
Il valore predefinito è n_gram
.
char_feature_extractor
Specifica gli argomenti di estrazione delle caratteristiche dei caratteri. Esistono due diversi meccanismi di estrazione delle caratteristiche:
n_gram()
: estrazione delle caratteristiche basata sul conteggio (equivalente a WordBag). Accetta le opzioni seguenti:max_num_terms
eweighting
.n_gram_hash()
: estrazione delle caratteristiche basata su hashing (equivalente a WordHashBag). Accetta le opzioni seguenti:hash_bits
,seed
,ordered
einvert_hash
.
Il valore predefinito è None.
vector_normalizer
Normalizza i vettori (righe) singolarmente ridimensionandoli in base a una norma unitaria. Accetta uno dei valori seguenti:
"None"
"L2"
"L1"
"LInf"
Il valore predefinito è "L2"
.
kargs
Argomenti aggiuntivi inviati al motore di calcolo.
Restituisce
Un oggetto che definisce la trasformazione.
Vedi anche
n_gram
, n_gram_hash
, n_gram
, n_gram_hash
, get_sentiment
.
Esempio
'''
Example with featurize_text and rx_logistic_regression.
'''
import numpy
import pandas
from microsoftml import rx_logistic_regression, featurize_text, rx_predict
from microsoftml.entrypoints._stopwordsremover_predefined import predefined
train_reviews = pandas.DataFrame(data=dict(
review=[
"This is great", "I hate it", "Love it", "Do not like it", "Really like it",
"I hate it", "I like it a lot", "I kind of hate it", "I do like it",
"I really hate it", "It is very good", "I hate it a bunch", "I love it a bunch",
"I hate it", "I like it very much", "I hate it very much.",
"I really do love it", "I really do hate it", "Love it!", "Hate it!",
"I love it", "I hate it", "I love it", "I hate it", "I love it"],
like=[True, False, True, False, True, False, True, False, True, False,
True, False, True, False, True, False, True, False, True, False, True,
False, True, False, True]))
test_reviews = pandas.DataFrame(data=dict(
review=[
"This is great", "I hate it", "Love it", "Really like it", "I hate it",
"I like it a lot", "I love it", "I do like it", "I really hate it", "I love it"]))
out_model = rx_logistic_regression("like ~ review_tran",
data=train_reviews,
ml_transforms=[
featurize_text(cols=dict(review_tran="review"),
stopwords_remover=predefined(),
keep_punctuations=False)])
# Use the model to score.
score_df = rx_predict(out_model, data=test_reviews, extra_vars_to_write=["review"])
print(score_df.head())
Output:
Beginning processing data.
Rows Read: 25, Read Time: 0, Transform Time: 0
Beginning processing data.
Beginning processing data.
Rows Read: 25, Read Time: 0, Transform Time: 0
Beginning processing data.
Not adding a normalizer.
Beginning processing data.
Rows Read: 25, Read Time: 0, Transform Time: 0
Beginning processing data.
Beginning processing data.
Rows Read: 25, Read Time: 0, Transform Time: 0
Beginning processing data.
LBFGS multi-threading will attempt to load dataset into memory. In case of out-of-memory issues, turn off multi-threading by setting trainThreads to 1.
Warning: Too few instances to use 4 threads, decreasing to 1 thread(s)
Beginning optimization
num vars: 11
improvement criterion: Mean Improvement
L1 regularization selected 3 of 11 weights.
Not training a calibrator because it is not needed.
Elapsed time: 00:00:00.3725934
Elapsed time: 00:00:00.0131199
Beginning processing data.
Rows Read: 10, Read Time: 0, Transform Time: 0
Beginning processing data.
Elapsed time: 00:00:00.0635453
Finished writing 10 rows.
Writing completed.
review PredictedLabel Score Probability
0 This is great True 0.443986 0.609208
1 I hate it False -0.668449 0.338844
2 Love it True 0.994339 0.729944
3 Really like it True 0.443986 0.609208
4 I hate it False -0.668449 0.338844
Estrattori di n-grammi
microsoftml.n_gram: converte il testo in caratteristiche usando n-grammi
microsoftml.n_gram_hash: converte il testo in caratteristiche usando n-grammi con hash