EdgeNGramTokenizer interface
Tokens the input from an edge into n-grams of the given size(s). Este tokenizador é implementado com o Apache Lucene.
- Extends
Propriedades
max |
O comprimento máximo de n-gramas. A predefinição é 2. O máximo é 300. |
min |
O comprimento mínimo de n-gramas. A predefinição é 1. O máximo é 300. Tem de ser inferior ao valor de maxGram. |
odatatype | Discriminador polimórfico, que especifica os diferentes tipos que este objeto pode ser |
token |
Classes de carateres a manter nos tokens. |
Propriedades Herdadas
name | O nome do tokenizer. Só tem de conter letras, dígitos, espaços, travessões ou carateres de sublinhado, só pode começar e terminar com carateres alfanuméricos e está limitado a 128 carateres. |
Detalhes de Propriedade
maxGram
O comprimento máximo de n-gramas. A predefinição é 2. O máximo é 300.
maxGram?: number
Valor de Propriedade
number
minGram
O comprimento mínimo de n-gramas. A predefinição é 1. O máximo é 300. Tem de ser inferior ao valor de maxGram.
minGram?: number
Valor de Propriedade
number
odatatype
Discriminador polimórfico, que especifica os diferentes tipos que este objeto pode ser
odatatype: "#Microsoft.Azure.Search.EdgeNGramTokenizer"
Valor de Propriedade
"#Microsoft.Azure.Search.EdgeNGramTokenizer"
tokenChars
Classes de carateres a manter nos tokens.
tokenChars?: TokenCharacterKind[]
Valor de Propriedade
Detalhes da Propriedade Herdada
name
O nome do tokenizer. Só tem de conter letras, dígitos, espaços, travessões ou carateres de sublinhado, só pode começar e terminar com carateres alfanuméricos e está limitado a 128 carateres.
name: string
Valor de Propriedade
string
Herdado deBaseLexicalTokenizer.name