Compartilhar via


ClassicTokenizer interface

Tokenizer baseado em gramática que é adequado para processar a maioria dos documentos de idioma europeu. Esse tokenizer é implementado usando o Apache Lucene.

Extends

Propriedades

maxTokenLength

O comprimento máximo do token. O padrão é 255. Tokens maiores do que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.

odatatype

Discriminatório polimórfico, que especifica os diferentes tipos que esse objeto pode ser

Propriedades herdadas

name

O nome do tokenizer. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres.

Detalhes da propriedade

maxTokenLength

O comprimento máximo do token. O padrão é 255. Tokens maiores do que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.

maxTokenLength?: number

Valor da propriedade

number

odatatype

Discriminatório polimórfico, que especifica os diferentes tipos que esse objeto pode ser

odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"

Valor da propriedade

"#Microsoft.Azure.Search.ClassicTokenizer"

Detalhes das propriedades herdadas

name

O nome do tokenizer. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres.

name: string

Valor da propriedade

string

Herdado deBaseLexicalTokenizer.name