Compartir a través de


LexicalTokenizerName Estructura

Definición

Define los nombres de todos los tokenizadores admitidos por Azure Cognitive Search.

public readonly struct LexicalTokenizerName : IEquatable<Azure.Search.Documents.Indexes.Models.LexicalTokenizerName>
type LexicalTokenizerName = struct
Public Structure LexicalTokenizerName
Implements IEquatable(Of LexicalTokenizerName)
Herencia
LexicalTokenizerName
Implementaciones

Constructores

LexicalTokenizerName(String)

Inicializa una nueva instancia de la clase LexicalTokenizerName.

Propiedades

Classic

Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html.

EdgeNGram

Tokeniza la entrada de un borde en n-gramas de los tamaños especificados. Vea https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html.

Keyword

Emite la entrada completa como un solo token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html.

Letter

Divide el texto por donde no hay letras. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html.

Lowercase

Divide el texto por donde no hay letras y lo convierte en minúsculas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html.

MicrosoftLanguageStemmingTokenizer

Divide el texto mediante reglas específicas del idioma y reduce las palabras a sus formas base.

MicrosoftLanguageTokenizer

Divide el texto mediante reglas específicas del idioma.

NGram

Tokeniza la entrada en n-gramas de tamaños dados. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html.

PathHierarchy

Tokenizador para las jerarquías parecidas a rutas de acceso. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html.

Pattern

Tokenizador que usa la coincidencia de patrones regex para construir tokens distintos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html.

Standard

Analizador estándar de Lucene; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro stop. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html.

UaxUrlEmail

Tokeniza las direcciones URL y los correos electrónicos como un token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html.

Whitespace

Divide el texto por los espacios en blanco. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html.

Métodos

Equals(LexicalTokenizerName)

Indica si el objeto actual es igual que otro objeto del mismo tipo.

ToString()

Devuelve el nombre de tipo completo de esta instancia.

Operadores

Equality(LexicalTokenizerName, LexicalTokenizerName)

Determina si dos LexicalTokenizerName valores son iguales.

Implicit(String to LexicalTokenizerName)

Convierte una cadena en un LexicalTokenizerName.

Inequality(LexicalTokenizerName, LexicalTokenizerName)

Determina si dos LexicalTokenizerName valores no son los mismos.

Se aplica a