Compartilhar via


TokenizerName Estrutura

Definição

Define os nomes de todos os tokenizers compatíveis com Azure Cognitive Search. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

[Newtonsoft.Json.JsonConverter(typeof(Microsoft.Azure.Search.Serialization.ExtensibleEnumConverter<Microsoft.Azure.Search.Models.TokenizerName>))]
public struct TokenizerName : IEquatable<Microsoft.Azure.Search.Models.TokenizerName>
[<Newtonsoft.Json.JsonConverter(typeof(Microsoft.Azure.Search.Serialization.ExtensibleEnumConverter<Microsoft.Azure.Search.Models.TokenizerName>))>]
type TokenizerName = struct
Public Structure TokenizerName
Implements IEquatable(Of TokenizerName)
Herança
TokenizerName
Atributos
Newtonsoft.Json.JsonConverterAttribute
Implementações

Campos

Classic

Criador de tokens baseado em gramática adequado para processar a maioria dos documentos em idioma europeu. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

EdgeNGram

Tokeniza a entrada de uma borda em n-gramas dos tamanhos fornecidos. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

Keyword

Emite a entrada inteira como um único token. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

Letter

Divide o texto em não letras. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

Lowercase

Divide o texto em não letras e converte em minúsculas. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

MicrosoftLanguageStemmingTokenizer

Divide o texto usando regras específicas de idioma e reduz palavras para seus formulários base.

MicrosoftLanguageTokenizer

Divide o texto usando regras específicas de idioma.

NGram

Cria tokens de entrada em n-gramas de determinados tamanhos. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

PathHierarchy

Criador de token para hierarquias de caminho. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

Pattern

Criador de token que usa a correspondência de padrões regex para construir tokens distintos. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

Standard

Analisador Lucene Padrão; Composto pelo tokenizer padrão, filtro em minúsculas e filtro de parada. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

UaxUrlEmail

Cria tokens de urls e emails como um único token. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

Whitespace

Divide o texto em espaços em branco. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

Métodos

Equals(Object)

Determina se o objeto especificado é igual ao objeto atual.

Equals(TokenizerName)

Compara o TokenizerName quanto à igualdade com outro TokenizerName.

GetHashCode()

Serve como a função de hash padrão.

ToString()

Retorna uma representação de cadeia de caracteres do TokenizerName.

Operadores

Equality(TokenizerName, TokenizerName)

Compara dois valores TokenizerName quanto à igualdade.

Explicit(TokenizerName to String)

Define a conversão explícita de TokenizerName em cadeia de caracteres.

Implicit(String to TokenizerName)

Define a conversão implícita de cadeia de caracteres para TokenizerName.

Inequality(TokenizerName, TokenizerName)

Compara dois valores TokenizerName quanto à desigualdade.

Aplica-se a