LexicalTokenizerName Estrutura

Definição

Define os nomes de todos os tokenizers compatíveis com Azure Cognitive Search.

public readonly struct LexicalTokenizerName : IEquatable<Azure.Search.Documents.Indexes.Models.LexicalTokenizerName>
type LexicalTokenizerName = struct
Public Structure LexicalTokenizerName
Implements IEquatable(Of LexicalTokenizerName)
Herança
LexicalTokenizerName
Implementações

Construtores

LexicalTokenizerName(String)

Inicializa uma nova instância de LexicalTokenizerName.

Propriedades

Classic

Tokenizer baseado em gramática que é adequado para processar a maioria dos documentos de idioma europeu. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html.

EdgeNGram

Tokeniza a entrada de uma borda em n-gramas dos tamanhos fornecidos. Consulte https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html.

Keyword

Emite a entrada inteira como um único token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html.

Letter

Divide o texto em não letras. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html.

Lowercase

Divide o texto em não letras e converte em minúsculas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html.

MicrosoftLanguageStemmingTokenizer

Divide o texto usando regras específicas de idioma e reduz palavras para seus formulários base.

MicrosoftLanguageTokenizer

Divide o texto usando regras específicas de idioma.

NGram

Cria tokens de entrada em n-gramas de determinados tamanhos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html.

PathHierarchy

Criador de token para hierarquias de caminho. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html.

Pattern

Tokenizer que usa a correspondência de padrões regex para construir tokens distintos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html.

Standard

Analisador Lucene Padrão; Composto pelo tokenizador padrão, filtro minúsculo e filtro de parada. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html.

UaxUrlEmail

Cria tokens de urls e emails como um único token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html.

Whitespace

Divide o texto em espaços em branco. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html.

Métodos

Equals(LexicalTokenizerName)

Indica se o objeto atual é igual a outro objeto do mesmo tipo.

ToString()

Retorna o nome do tipo totalmente qualificado dessa instância.

Operadores

Equality(LexicalTokenizerName, LexicalTokenizerName)

Determina se dois LexicalTokenizerName valores são os mesmos.

Implicit(String to LexicalTokenizerName)

Converte uma cadeia de caracteres em um LexicalTokenizerName.

Inequality(LexicalTokenizerName, LexicalTokenizerName)

Determina se dois LexicalTokenizerName valores não são os mesmos.

Aplica-se a