ClassicTokenizer interface
Tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Este tokenizador é implementado usando Apache Lucene.
- Extends
Propriedades
max |
O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
odatatype | Discriminador polimórfico, que especifica os diferentes tipos que este objeto pode ser |
Propriedades Herdadas
name | O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
Detalhes de Propriedade
maxTokenLength
O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.
maxTokenLength?: number
Valor de Propriedade
number
odatatype
Discriminador polimórfico, que especifica os diferentes tipos que este objeto pode ser
odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"
Valor de Propriedade
"#Microsoft.Azure.Search.ClassicTokenizer"
Detalhes da Propriedade Herdada
name
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.
name: string
Valor de Propriedade
string
herdada deBaseLexicalTokenizer.name