Condividi tramite


KnownTokenFilterNames enum

Valori noti di TokenFilterName accettati dal servizio.

Campi

Apostrophe

Rimuove tutti i caratteri dopo un apostrofo (incluso l'apostrofo stesso). Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html

ArabicNormalization

Filtro di token che applica il normalizzatore per la lingua araba per normalizzare l'ortografia. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html

AsciiFolding

Converte caratteri Unicode alfabetici, numerici e simbolici che non sono nei primi 127 caratteri ASCII (il blocco Unicode "Alfabeto latino di base") nei rispettivi equivalenti ASCII, se tali equivalenti esistono. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

CjkBigram

Forma i bigram dei termini CJK generati dal tokenizer standard. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

CjkWidth

Normalizza le differenze di larghezza per le lingue CJK. Piega le varianti fullwidth ASCII nell'equivalente alfabeto latino di base e le varianti Katakana a metà larghezza nell'equivalente Kana. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html

Classic

Rimuove i possessivi inglesi e i punti dagli acronimi. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html

CommonGram

Costruisce digrammi per i termini frequenti durante l'indicizzazione. Anche i termini singoli continuano a essere indicizzati, con i digrammi sovrapposti. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

EdgeNGram

Genera n-grammi delle dimensioni specificate a partire dalla parte anteriore o posteriore di un token di input. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

Elision

Rimuove le elisioni. Ad esempio, "l'avion" (piano) verrà convertito in "avion" (piano). Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

GermanNormalization

Normalizza i caratteri tedeschi in base all'euristica dell'algoritmo snowball German2. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html

HindiNormalization

Normalizza il testo in hindi per rimuovere alcune differenze nelle varianti di ortografia. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html

IndicNormalization

Normalizza la rappresentazione Unicode del testo nelle lingue indiane. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html

KeywordRepeat

Genera ogni token in ingresso due volte, una volta come parola chiave e una volta come parola chiave non. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html

KStem

Filtro kstem con prestazioni elevate per l'inglese. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html

Length

Rimuove le parole troppo lunghe o troppo corte. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

Limit

Limita il numero di token durante l'indicizzazione. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

Lowercase

Normalizza il testo del token applicando il minuscolo. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm

NGram

Genera n-grammi delle dimensioni specificate. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

PersianNormalization

Applica la normalizzazione per il persiano. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html

Phonetic

Crea i token per le corrispondenze fonetiche. Vedere https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

PorterStem

Usa l'algoritmo di stemming Porter per trasformare il flusso di token. Vedere http://tartarus.org/~martin/PorterStemmer

Reverse

Inverte la stringa del token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

ScandinavianFoldingNormalization

Piega i caratteri scandinavi åÅäæÄÆ-a> e öÖøØ-o>. Discrimina anche l'uso delle vocali doppie aa, ae, ao, oe e oo, lasciando solo la prima. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html

ScandinavianNormalization

Normalizza l'uso dei caratteri scandinavi intercambiabili. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html

Shingle

Crea combinazioni di token come token singolo. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

Snowball

Filtro che deriva le parole usando uno stemmer generato da Snowball. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

SoraniNormalization

Normalizza la rappresentazione Unicode del testo in sorani. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html

Stemmer

Filtro di stemming specifico della lingua. Vedere https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

Stopwords

Rimuove le parole non significative da un flusso di token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

Trim

Elimina lo spazio vuoto iniziale e finale dai token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html

Truncate

Tronca i termini a una lunghezza specifica. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

Unique

Filtra i token con lo stesso testo del token precedente. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

Uppercase

Normalizza il testo del token applicando il maiuscolo. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

WordDelimiter

Suddivide le parole in sottoparole ed esegue trasformazioni facoltative sui gruppi di sottoparole.