TokenFilterName Estrutura

Definição

Define os nomes de todos os filtros de token compatíveis com Azure Cognitive Search.

public readonly struct TokenFilterName : IEquatable<Azure.Search.Documents.Indexes.Models.TokenFilterName>
type TokenFilterName = struct
Public Structure TokenFilterName
Implements IEquatable(Of TokenFilterName)
Herança
TokenFilterName
Implementações

Construtores

TokenFilterName(String)

Inicializa uma nova instância de TokenFilterName.

Propriedades

Apostrophe

Remove todos os caracteres após um apóstrofo (incluindo o próprio apóstrofo). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html.

ArabicNormalization

Um filtro de token que aplica o normalizador em árabe para normalizar a ortografia. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html.

AsciiFolding

Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico" em seus equivalentes ASCII, se esses equivalentes existirem. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.

CjkBigram

Forma bigrams de termos CJK gerados do criador de token padrão. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html.

CjkWidth

Normaliza as diferenças de largura CJK. Dobra as variantes ASCII de largura total no latim básico equivalente e variantes Katakana de meia largura no Kana equivalente. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html.

Classic

Remove possessivos em inglês e de acrônimos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html.

CommonGram

Construa bigramas para termos que ocorrem com frequência durante a indexação. Termos únicos ainda são indexados também, com bigramas sobrepostos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html.

EdgeNGram

Gera n-gramas dos tamanhos fornecidos começando na frente ou na parte traseira de um token de entrada. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html.

Elision

Remove elisões. Por exemplo, "l'avion" (o plano) será convertido em "avion" (plano). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.

GermanNormalization

Normaliza caracteres alemães de acordo com a heurística do algoritmo alemão2 bola de neve. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html.

HindiNormalization

Normaliza o texto em hindi para remover algumas diferenças nas variações ortográficas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html.

IndicNormalization

Normaliza a representação Unicode do texto nos idiomas indianos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html.

KeywordRepeat

Emite cada token de entrada duas vezes, uma vez como palavra-chave e uma vez como não palavra-chave. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html.

KStem

Um filtro kstem de alto desempenho para o inglês. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html.

Length

Remove palavras muito longas ou muito curtas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html.

Limit

Limita o número de tokens durante a indexação. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html.

Lowercase

Normaliza o texto do token para letras minúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html.

NGram

Gera n-gramas de determinados tamanhos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html.

PersianNormalization

Aplica a normalização para persa. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html.

Phonetic

Crie tokens para correspondências fonéticas. Consulte https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html.

PorterStem

Usa o algoritmo de lematização Porter para transformar o fluxo de token. Consulte http://tartarus.org/~martin/PorterStemmer.

Reverse

Inverte a cadeia de caracteres do token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.

ScandinavianFoldingNormalization

Dobra os caracteres escandinavos åÅäæÄÆ->a e öÖøØ->o. Também discrimina o uso de vogais duplas aa, ae, SOL, oe e oo, deixando apenas o primeiro deles. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html.

ScandinavianNormalization

Normaliza o uso de caracteres escandinavos intercambiáveis. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html.

Shingle

Cria combinações de tokens como um único token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html.

Snowball

Um filtro que deriva palavras usando um lematizador gerado por Bola de Neve. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html.

SoraniNormalization

Normaliza a representação Unicode de texto Sorani. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html.

Stemmer

Filtro de lematização específico da linguagem. Consulte https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters.

Stopwords

Remove palavras irrelevantes de um fluxo de tokens. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html.

Trim

Corta o espaço em branco à esquerda e à direita de uma cadeia de tokens. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html.

Truncate

Trunca os termos para um comprimento específico. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html.

Unique

Filtra os tokens com o mesmo texto como o token anterior. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html.

Uppercase

Normaliza o texto do token para letras maiúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.

WordDelimiter

Divide as palavras em subpalavras e realiza transformações opcionais em grupos de subpalavras.

Métodos

Equals(TokenFilterName)

Indica se o objeto atual é igual a outro objeto do mesmo tipo.

ToString()

Retorna o nome do tipo totalmente qualificado dessa instância.

Operadores

Equality(TokenFilterName, TokenFilterName)

Determina se dois TokenFilterName valores são os mesmos.

Implicit(String to TokenFilterName)

Converte uma cadeia de caracteres em um TokenFilterName.

Inequality(TokenFilterName, TokenFilterName)

Determina se dois TokenFilterName valores não são os mesmos.

Aplica-se a