共用方式為


LexicalTokenizerName type

定義 LexicalTokenizerName 的值。
<xref:KnownLexicalTokenizerName> 可以與 LexicalTokenizerName 交換使用,此列舉包含服務支援的已知值。

服務支援的已知值

傳統:適用于處理大部分歐洲語言檔的文法型 Tokenizer。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram:將邊緣的輸入標記化為指定大小的 n-gram (s) 。 請參閱 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2:以單一權杖的形式發出整個輸入。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
字母:將文字除以非字母。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
小寫:以非字母分割文字,並將其轉換成小寫。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer:使用特定語言規則來分割文字。
microsoft_language_stemming_tokenizer:使用特定語言規則來分割文字,並將文字縮減為其基底形式。
nGram:將輸入標記化為指定大小的 n-gram (s) 。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2:類似路徑階層的 Tokenizer。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
模式:使用 RegEx 模式比對來建構不同權杖的 Tokenizer。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2:標準 Lucene 分析器;由標準 Tokenizer、小寫篩選和停止篩選所組成。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email:將 URL 和電子郵件權杖化為一個權杖。 請參閱 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
空白字元:在空白字元處分割文字。 請參閱http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

type LexicalTokenizerName = string