LexicalTokenizerName type

يحدد قيم LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> يمكن استخدامها بالتبادل مع LexicalTokenizerName، يحتوي هذا التعداد على القيم المعروفة التي تدعمها الخدمة.

القيم المعروفة التي تدعمها الخدمة

كلاسيكي: الرمز المميز المستند إلى التدقيق النحوي المناسب لمعالجة معظم المستندات باللغة الأوروبية. راجع http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: يقوم برمز الإدخال من حافة إلى n-grams من الحجم (الأحجام) المحددة. راجع https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: يصدر الإدخال بأكمله كرمز مميز واحد. راجع http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
حرف: يقسم النص على غير أحرف. راجع http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
أحرف صغيرة: يقسم النص على أحرف غير ويحولها إلى أحرف صغيرة. راجع http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: يقسم النص باستخدام قواعد خاصة باللغة.
microsoft_language_stemming_tokenizer: يقسم النص باستخدام قواعد خاصة باللغة ويقلل الكلمات إلى نماذجها الأساسية.
nGram: يقوم برمز الإدخال إلى n-grams من الحجم (الأحجام) المحدد. راجع http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: الرمز المميز للتسلسلات الهرمية التي تشبه المسار. راجع http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
النمط: الرمز المميز الذي يستخدم مطابقة نمط regex لإنشاء رموز مميزة. راجع http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: محلل Lucene القياسي؛ يتكون من الرمز المميز القياسي وعامل تصفية الأحرف الصغيرة وعامل تصفية الإيقاف. راجع http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: ترميز عناوين URL ورسائل البريد الإلكتروني كرمز مميز واحد. راجع http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
المسافة البيضاء: يقسم النص على المسافة البيضاء. راجع http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

type LexicalTokenizerName = string