Compartir a través de


TokenizerName Estructura

Definición

Define los nombres de todos los tokenizadores admitidos por Azure Cognitive Search. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

[Newtonsoft.Json.JsonConverter(typeof(Microsoft.Azure.Search.Serialization.ExtensibleEnumConverter<Microsoft.Azure.Search.Models.TokenizerName>))]
public struct TokenizerName : IEquatable<Microsoft.Azure.Search.Models.TokenizerName>
[<Newtonsoft.Json.JsonConverter(typeof(Microsoft.Azure.Search.Serialization.ExtensibleEnumConverter<Microsoft.Azure.Search.Models.TokenizerName>))>]
type TokenizerName = struct
Public Structure TokenizerName
Implements IEquatable(Of TokenizerName)
Herencia
TokenizerName
Atributos
Newtonsoft.Json.JsonConverterAttribute
Implementaciones

Campos

Classic

Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

EdgeNGram

Tokeniza la entrada de un borde en n-gramas de los tamaños especificados. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

Keyword

Emite la entrada completa como un solo token. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

Letter

Divide el texto por donde no hay letras. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

Lowercase

Divide el texto por donde no hay letras y lo convierte en minúsculas. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

MicrosoftLanguageStemmingTokenizer

Divide el texto mediante reglas específicas del idioma y reduce las palabras a sus formas base.

MicrosoftLanguageTokenizer

Divide el texto mediante reglas específicas del idioma.

NGram

Tokeniza la entrada en n-gramas de tamaños dados. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

PathHierarchy

Tokenizador para las jerarquías parecidas a rutas de acceso. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

Pattern

Tokenizador que usa la coincidencia de patrones regex para construir tokens distintos. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

Standard

Analizador estándar de Lucene; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro stop. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

UaxUrlEmail

Tokeniza las direcciones URL y los correos electrónicos como un token. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

Whitespace

Divide el texto por los espacios en blanco. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

Métodos

Equals(Object)

Determina si el objeto especificado es igual que el objeto actual.

Equals(TokenizerName)

Compara tokenizerName para comprobar la igualdad con otro tokenizerName.

GetHashCode()

Sirve como la función hash predeterminada.

ToString()

Devuelve una representación de cadena de TokenizerName.

Operadores

Equality(TokenizerName, TokenizerName)

Compara dos valores de TokenizerName para comprobar si son iguales.

Explicit(TokenizerName to String)

Define la conversión explícita de TokenizerName a cadena.

Implicit(String to TokenizerName)

Define la conversión implícita de cadena a TokenizerName.

Inequality(TokenizerName, TokenizerName)

Compara dos valores de TokenizerName para la desigualdad.

Se aplica a