TokenFilterName Estructura

Definición

Define los nombres de todos los filtros de token admitidos por Azure Cognitive Search.

public readonly struct TokenFilterName : IEquatable<Azure.Search.Documents.Indexes.Models.TokenFilterName>
type TokenFilterName = struct
Public Structure TokenFilterName
Implements IEquatable(Of TokenFilterName)
Herencia
TokenFilterName
Implementaciones

Constructores

TokenFilterName(String)

Inicializa una nueva instancia de la clase TokenFilterName.

Propiedades

Apostrophe

Elimina todos los caracteres después de un apóstrofo (incluido el propio apóstrofo). Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html.

ArabicNormalization

Un filtro de token que aplica el normalizador de árabe para normalizar la ortografía. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html.

AsciiFolding

Convierte caracteres Unicode alfabéticos, numéricos y simbólicos que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Basic Latin" ) en sus equivalentes ASCII, si existen dichos equivalentes. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.

CjkBigram

Forma bigrams de términos de CJK que se generan a partir del tokenizador estándar. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html.

CjkWidth

Normaliza las diferencias de ancho de CJK. Dobla las variantes ASCII fullwidth en las variantes equivalentes básicas latinas y katakana de ancho medio en el kana equivalente. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html.

Classic

Quita los posesivos en inglés y los puntos de los acrónimos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html.

CommonGram

Construye bigramas para términos que se repiten con frecuencia durante la indexación. Los términos individuales también se indexan, con los bigramas superpuestos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html.

EdgeNGram

Genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html.

Elision

Quita las elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.

GermanNormalization

Normaliza los caracteres alemanes según la heurística del algoritmo de bola de nieve alemán2. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html.

HindiNormalization

Normaliza el texto en hindi para quitar algunas diferencias en las variaciones ortográficas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html.

IndicNormalization

Normaliza la representación Unicode de texto en las lenguas hindúes. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html.

KeywordRepeat

Emite cada token entrante dos veces, una como palabra clave y una vez como no palabra clave. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html.

KStem

Un filtro kstem de alto rendimiento para inglés. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html.

Length

Quita las palabras que son demasiado largas o demasiado cortas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html.

Limit

Limita el número de tokens durante la indexación. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html.

Lowercase

Normaliza el texto de token a minúsculas. Vea https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html.

NGram

Genera n-gramas de los tamaños dados. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html.

PersianNormalization

Aplica la normalización para persa. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html.

Phonetic

Crea tokens para coincidencias fonéticas. Vea https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html.

PorterStem

Usa el algoritmo de lematización de Porter para transformar el flujo de tokens. Vea http://tartarus.org/~martin/PorterStemmer.

Reverse

Invierte la cadena de token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.

ScandinavianFoldingNormalization

Pliega los caracteres escandinavos åÅäæÄÆ->a y öÖøØ->o. También discrimina el uso de las vocales dobles aa, ae, ao, oe y oo, dejando solo la primera de ellas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html.

ScandinavianNormalization

Normaliza el uso de los caracteres de escandinavo intercambiables. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html.

Shingle

Crea combinaciones de tokens como un solo token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html.

Snowball

Filtro que deriva palabras mediante un lematizador generado por Snowball. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html.

SoraniNormalization

Normaliza la representación de Unicode de texto del idioma sorani. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html.

Stemmer

Filtro de lematización específico del idioma. Vea https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters.

Stopwords

Quita las palabras irrelevantes de una secuencia de tokens. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html.

Trim

Recorta el espacio en blanco inicial y final de los tokens. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html.

Truncate

Trunca los términos en una longitud específica. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html.

Unique

Filtra los tokens con el mismo texto que el token anterior. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html.

Uppercase

Normaliza el texto de token a mayúsculas. Vea https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.

WordDelimiter

Divide palabras en subpalabras y realiza transformaciones opcionales en los grupos de subpalabras.

Métodos

Equals(TokenFilterName)

Indica si el objeto actual es igual que otro objeto del mismo tipo.

ToString()

Devuelve el nombre de tipo completo de esta instancia.

Operadores

Equality(TokenFilterName, TokenFilterName)

Determina si dos TokenFilterName valores son iguales.

Implicit(String to TokenFilterName)

Convierte una cadena en un TokenFilterName.

Inequality(TokenFilterName, TokenFilterName)

Determina si dos TokenFilterName valores no son los mismos.

Se aplica a