Condividi tramite


KnownTokenizerNames enum

Valori noti di LexicalTokenizerName accettati dal servizio.

Campi

Classic

Tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

EdgeNGram

Tokenzza l'input da un bordo in n-grammi delle dimensioni specificate. Vedere https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

Keyword

Genera l'intero input come token singolo. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

Letter

Divide il testo in corrispondenza di elementi diversi da lettere. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

Lowercase

Divide il testo in corrispondenza di elementi diversi da lettere e li converte in lettere minuscole. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

MicrosoftLanguageStemmingTokenizer

Divide il testo usando regole specifiche della lingua e riduce le parole alle relative forme di base.

MicrosoftLanguageTokenizer

Divide il testo usando le regole specifiche della lingua.

NGram

Suddivide in token l'input in n-grammi di determinate dimensioni. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

PathHierarchy

Tokenizer per le gerarchie di tipo percorso. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

Pattern

Tokenizer che usa il modello regex corrispondente per costruire token distinti. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

Standard

Analizzatore Lucene standard; Composto dal tokenizer standard, dal filtro minuscolo e dal filtro di arresto. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

UaxUrlEmail

Suddivide in token gli URL e gli indirizzi di posta elettronica come un unico token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

Whitespace

Divide il testo in corrispondenza degli spazi vuoti. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html