Partager via


TokenizerName Structure

Définition

Définit les noms de tous les générateurs de jetons pris en charge par Recherche cognitive Azure. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

[Newtonsoft.Json.JsonConverter(typeof(Microsoft.Azure.Search.Serialization.ExtensibleEnumConverter<Microsoft.Azure.Search.Models.TokenizerName>))]
public struct TokenizerName : IEquatable<Microsoft.Azure.Search.Models.TokenizerName>
[<Newtonsoft.Json.JsonConverter(typeof(Microsoft.Azure.Search.Serialization.ExtensibleEnumConverter<Microsoft.Azure.Search.Models.TokenizerName>))>]
type TokenizerName = struct
Public Structure TokenizerName
Implements IEquatable(Of TokenizerName)
Héritage
TokenizerName
Attributs
Newtonsoft.Json.JsonConverterAttribute
Implémente

Champs

Classic

Un générateur de jetons basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

EdgeNGram

Jetonse l’entrée d’un bord en n grammes de la ou des tailles données. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

Keyword

Génère la totalité de l’entrée sous la forme d’un unique jeton. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

Letter

Divise un texte à l’endroit des caractères qui ne sont pas des lettres. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

Lowercase

Divise le texte à l’endroit des caractères qui ne sont pas des lettres et le convertit en minuscules. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

MicrosoftLanguageStemmingTokenizer

Divise le texte en utilisant des règles spécifiques à la langue et réduit les mots à leurs formes de base.

MicrosoftLanguageTokenizer

Divise le texte en utilisant des règles spécifiques à la langue.

NGram

Génère des jetons à partir de l’entrée en n-grammes d’une ou plusieurs tailles données. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

PathHierarchy

Générateur de jetons pour les hiérarchies de type chemin. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

Pattern

Tokenizer qui utilise la correspondance de modèle regex pour construire des jetons distincts. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

Standard

Analyseur Lucene standard ; Composé du générateur de jetons standard, du filtre en minuscules et du filtre d’arrêt. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

UaxUrlEmail

Génère des jetons pour des URL et des e-mails sous la forme d’un seul jeton. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

Whitespace

Divise le texte au niveau des espaces. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

Méthodes

Equals(Object)

Détermine si l'objet spécifié est égal à l'objet actuel.

Equals(TokenizerName)

Compare tokenizerName pour l’égalité avec un autre TokenizerName.

GetHashCode()

Fait office de fonction de hachage par défaut.

ToString()

Retourne une représentation sous forme de chaîne de TokenizerName.

Opérateurs

Equality(TokenizerName, TokenizerName)

Compare deux valeurs TokenizerName pour l’égalité.

Explicit(TokenizerName to String)

Définit la conversion explicite de TokenizerName en chaîne.

Implicit(String to TokenizerName)

Définit la conversion implicite de chaîne en TokenizerName.

Inequality(TokenizerName, TokenizerName)

Compare deux valeurs TokenizerName pour l’inégalité.

S’applique à