LexicalTokenizerName type
A LexikálisTokenizerName értékeit határozza meg.
<xref:KnownLexicalTokenizerName> a LexicalTokenizerName használatával felcserélhető, ez a szám tartalmazza a szolgáltatás által támogatott ismert értékeket.
A szolgáltatás által támogatott ismert értékek
klasszikus: A legtöbb európai nyelvű dokumentum feldolgozására alkalmas nyelvhelyességi jogkivonat-ellenőrző. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: A megadott méret(ek) n-grammjára tokenizálja a bemenetet egy élből. Lásd: https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: A teljes bemenetet egyetlen tokenként bocsátja ki. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
betű: A szöveget nem betűkkel osztja el. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
kisbetű: A szöveget nem betűkre osztja, és kisbetűssé alakítja. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: Nyelvspecifikus szabályokkal osztja el a szöveget.
microsoft_language_stemming_tokenizer: Nyelvspecifikus szabályokkal osztja el a szöveget, és csökkenti a szavak alapformáit.
nGram: A megadott méret(ek) n-grammjára alakítja a bemenetet. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Elérési utakhoz hasonló hierarchiák tokenizálója. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
pattern: Tokenizer, amely regex mintaegyeztetést használ a különböző jogkivonatok létrehozásához. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Standard Lucene-elemző; A standard tokenizerből, kisbetűs szűrőből és leállításszűrőből áll. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Az URL-címeket és az e-maileket tokenizálja egy jogkivonatként. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
whitespace: Elosztja a szöveget a szóköznél. Lásd: http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html
type LexicalTokenizerName = string