Partilhar via


ClassicTokenizer interface

Tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Este tokenizador é implementado usando Apache Lucene.

Extends

Propriedades

maxTokenLength

O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.

odatatype

Discriminador polimórfico, que especifica os diferentes tipos que este objeto pode ser

Propriedades Herdadas

name

O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

Detalhes de Propriedade

maxTokenLength

O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.

maxTokenLength?: number

Valor de Propriedade

number

odatatype

Discriminador polimórfico, que especifica os diferentes tipos que este objeto pode ser

odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"

Valor de Propriedade

"#Microsoft.Azure.Search.ClassicTokenizer"

Detalhes da Propriedade Herdada

name

O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

name: string

Valor de Propriedade

string

herdada deBaseLexicalTokenizer.name