Compartilhar via


MicrosoftLanguageStemmingTokenizer Classe

Definição

Divide o texto usando regras específicas de idioma e reduz palavras para seus formulários base.

[Newtonsoft.Json.JsonObject("#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer")]
public class MicrosoftLanguageStemmingTokenizer : Microsoft.Azure.Search.Models.Tokenizer
[<Newtonsoft.Json.JsonObject("#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer")>]
type MicrosoftLanguageStemmingTokenizer = class
    inherit Tokenizer
Public Class MicrosoftLanguageStemmingTokenizer
Inherits Tokenizer
Herança
MicrosoftLanguageStemmingTokenizer
Atributos
Newtonsoft.Json.JsonObjectAttribute

Construtores

MicrosoftLanguageStemmingTokenizer()

Inicializa uma nova instância da classe MicrosoftLanguageStemmingTokenizer.

MicrosoftLanguageStemmingTokenizer(String, Nullable<Int32>, Nullable<Boolean>, Nullable<MicrosoftStemmingTokenizerLanguage>)

Inicializa uma nova instância da classe MicrosoftLanguageStemmingTokenizer.

Propriedades

IsSearchTokenizer

Obtém ou define um valor que indica como o tokenizer é usado. Defina como true se usado como o tokenizador de pesquisa, defina como false se usado como o tokenizador de indexação. O padrão é false.

Language

Obtém ou define o idioma a ser usado. O padrão é inglês. Os valores possíveis incluem: 'árabe', 'bangla', 'búlgaro', 'catalão', 'croata', 'tcheco', 'dinamarquês', 'holandês', 'inglês', 'estoniano', 'finlandês', 'francês', 'alemão', 'grego', 'gujarati', 'hebraico', 'hindi', 'húngaro', 'islandês', 'indonésio', 'italiano', 'kannada', 'letão', 'lituano', 'malaio', 'malaia', 'marathi', 'norwegianBokmaal', 'polonês', 'português', 'portuguêsbrazilo', 'punjabi', 'romeno', 'russo', 'sérvioCyrillic', 'sérvioLatin', 'eslovaco', 'eslovaco', 'espanhol', 'espanhol', 'swedish', 'tamil', 'telugu', 'turkish', 'ucraniano', 'urdu'

MaxTokenLength

Obtém ou define o comprimento máximo do token. Tokens maiores do que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Tokens com mais de 300 caracteres são divididos primeiro em tokens de comprimento 300 e, em seguida, cada um desses tokens é dividido com base no conjunto de comprimento máximo do token. O padrão é 255.

Name

Obtém ou define o nome do tokenizer. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres.

(Herdado de Tokenizer)

Métodos

Validate()

Valide o objeto .

Aplica-se a