microsoftml.categorical_hash: erstellt einen Hash für eine Textspalte und konvertiert diese in Kategorien
Verwendung
microsoftml.categorical_hash(cols: [str, dict, list],
hash_bits: int = 16, seed: int = 314489979,
ordered: bool = True, invert_hash: int = 0,
output_kind: ['Bag', 'Ind', 'Key', 'Bin'] = 'Bag', **kargs)
BESCHREIBUNG
Kategorische Hashtransformation, die auf Daten angewendet werden kann, bevor ein Modell trainiert wird.
Details
categorical_hash
konvertiert einen kategorischen Wert in ein Indikatorarray, wobei der Wert mit einem Hashwert versehen und der Hashwert als Index im Behälter verwendet wird. Wenn die Eingabespalte ein Vektor ist, wird ein einzelner Indikatorbehälter für diese Spalte zurückgegeben.
categorical_hash
unterstützt derzeit nicht die Verarbeitung von Faktordaten.
Argumente
cols
Eine Zeichenfolge oder Liste mit den zu transformierenden Variablennamen. Falls dict
, stellen die Schlüssel die Namen der neu zu erstellenden Variablen dar.
hash_bits
Eine ganze Zahl, die die Anzahl der Bits angibt, in die der Hashwert konvertiert werden soll. Muss im Bereich 1 bis 30 liegen. Der Standardwert ist 16.
seed
Eine ganze Zahl, die den Anfangswert des Hashs angibt. Der Standardwert ist 314489979.
geordnete
True
, um die Position jedes Terms im Hash anzugeben. Andernfalls False
. Der Standardwert ist True
.
invert_hash
Eine ganze Zahl, die die maximale Anzahl von Schlüsseln angibt, die zum Generieren des Slotnamens verwendet werden können.
0
bedeutet kein Invertieren des Hashings, -1
bedeutet ohne Limit. Wenngleich ein Nullwert zu einer besseren Leistung führt, ist ein Wert ungleich Null erforderlich, um aussagekräftige Koeffizientennamen zu erhalten.
Der Standardwert ist 0
.
output_kind
Eine Zeichenfolge, die die Art der Ausgabe angibt.
"Bag"
: gibt einen Vektor mit mehreren Mengen aus. Wenn die Eingabespalte ein Vektor von Kategorien ist, enthält die Ausgabe einen Vektor, wobei der Wert in jedem Slot die Anzahl der Vorkommen der Kategorie im Eingabevektor ist. Falls die Eingabespalte eine einzige Kategorie enthält, sind Indikatorvektor und Behältervektor gleichwertig"Ind"
: gibt einen Indikatorvektor aus. Die Eingabespalte ist ein Vektor von Kategorien, und die Ausgabe enthält einen Indikatorvektor pro Slot in der Eingabespalte."Key
: gibt einen Index aus. Die Ausgabe ist eine ganzzahlige ID der Kategorie (im Bereich 1 bis zur Anzahl der Kategorien im Wörterbuch)."Bin
: gibt einen Vektor aus, der die binäre Darstellung der Kategorie ist.
Der Standardwert ist "Bag"
.
kargs
Zusätzliche Argumente, die an die Compute-Engine gesendet werden.
Gibt zurück
Ein Objekt, das die Transformation definiert.
Siehe auch
Beispiel
'''
Example on rx_logistic_regression and categorical_hash.
'''
import numpy
import pandas
from microsoftml import rx_logistic_regression, categorical_hash, rx_predict
from microsoftml.datasets.datasets import get_dataset
movie_reviews = get_dataset("movie_reviews")
train_reviews = pandas.DataFrame(data=dict(
review=[
"This is great", "I hate it", "Love it", "Do not like it", "Really like it",
"I hate it", "I like it a lot", "I kind of hate it", "I do like it",
"I really hate it", "It is very good", "I hate it a bunch", "I love it a bunch",
"I hate it", "I like it very much", "I hate it very much.",
"I really do love it", "I really do hate it", "Love it!", "Hate it!",
"I love it", "I hate it", "I love it", "I hate it", "I love it"],
like=[True, False, True, False, True, False, True, False, True, False,
True, False, True, False, True, False, True, False, True, False, True,
False, True, False, True]))
test_reviews = pandas.DataFrame(data=dict(
review=[
"This is great", "I hate it", "Love it", "Really like it", "I hate it",
"I like it a lot", "I love it", "I do like it", "I really hate it", "I love it"]))
# Use a categorical hash transform.
out_model = rx_logistic_regression("like ~ reviewCat",
data=train_reviews,
ml_transforms=[categorical_hash(cols=dict(reviewCat="review"))])
# Weights are similar to categorical.
print(out_model.coef_)
# Use the model to score.
source_out_df = rx_predict(out_model, data=test_reviews, extra_vars_to_write=["review"])
print(source_out_df.head())
Ausgabe:
Not adding a normalizer.
Beginning processing data.
Rows Read: 25, Read Time: 0, Transform Time: 0
Beginning processing data.
Beginning processing data.
Rows Read: 25, Read Time: 0, Transform Time: 0
Beginning processing data.
LBFGS multi-threading will attempt to load dataset into memory. In case of out-of-memory issues, turn off multi-threading by setting trainThreads to 1.
Warning: Too few instances to use 4 threads, decreasing to 1 thread(s)
Beginning optimization
num vars: 65537
improvement criterion: Mean Improvement
L1 regularization selected 3 of 65537 weights.
Not training a calibrator because it is not needed.
Elapsed time: 00:00:00.1209392
Elapsed time: 00:00:00.0190134
OrderedDict([('(Bias)', 0.2132447361946106), ('f1783', -0.7939924597740173), ('f38537', 0.1968022584915161)])
Beginning processing data.
Rows Read: 10, Read Time: 0, Transform Time: 0
Beginning processing data.
Elapsed time: 00:00:00.0284223
Finished writing 10 rows.
Writing completed.
review PredictedLabel Score Probability
0 This is great True 0.213245 0.553110
1 I hate it False -0.580748 0.358761
2 Love it True 0.213245 0.553110
3 Really like it True 0.213245 0.553110
4 I hate it False -0.580748 0.358761