Delen via


LexicalTokenizerName type

Definieert waarden voor LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> kan door elkaar worden gebruikt met LexicalTokenizerName. Deze opsomming bevat de bekende waarden die door de service worden ondersteund.

Bekende waarden die door de service worden ondersteund

klassiek: tokenizer op basis van grammatica die geschikt is voor het verwerken van de meeste Europese documenten. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: tokent de invoer van een rand in n-grammen van de opgegeven grootte(n). Zie https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: verzendt de volledige invoer als één token. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
letter: Verdeelt tekst op niet-letters. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
kleine letters: verdeelt tekst over niet-letters en converteert deze naar kleine letters. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: Verdeelt tekst met taalspecifieke regels.
microsoft_language_stemming_tokenizer: Verdeelt tekst met taalspecifieke regels en vermindert woorden tot de basisvormen.
nGram: hiermee wordt de invoer omgezet in n-grammen van de opgegeven grootte(n). Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizer voor padachtige hiërarchieën. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
patroon: Tokenizer die gebruikmaakt van regex-patroonkoppeling om afzonderlijke tokens te maken. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Standard Lucene analyzer; Bestaat uit de standaardtokenizer, het filter in kleine letters en het stopfilter. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: URL's en e-mailberichten tokennen als één token. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
witruimte: hiermee verdeelt u tekst op witruimte. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

type LexicalTokenizerName = string