Partager via


LexicalTokenizerName type

Définit des valeurs pour LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> peut être utilisé indifféremment avec LexicalTokenizerName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

classique : générateur de jetons basé sur la grammaire adapté au traitement de la plupart des documents en langue européenne. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram : tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2 : émet l’entrée entière sous la forme d’un jeton unique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
lettre : divise le texte en non-lettres. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
minuscules : divise le texte en lettres autres que les lettres et les convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer : divise le texte à l’aide de règles propres à la langue.
microsoft_language_stemming_tokenizer : divise le texte à l’aide de règles propres à la langue et réduit les mots à leurs formes de base.
nGram : tokenise l’entrée en n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2 : Générateur de jetons pour les hiérarchies de type chemin d’accès. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
pattern : Générateur de jetons qui utilise la correspondance de modèle regex pour construire des jetons distincts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2 : analyseur Lucene standard ; Composé du générateur de jetons standard, du filtre en minuscules et du filtre d’arrêt. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email : tokenise les URL et les e-mails sous la forme d’un jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
whitespace : divise le texte au niveau de l’espace blanc. Consultez http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

type LexicalTokenizerName = string