Partilhar via


EdgeNGramTokenizer interface

Tokens the input from an edge into n-grams of the given size(s). Este tokenizador é implementado com o Apache Lucene.

Extends

Propriedades

maxGram

O comprimento máximo de n-gramas. A predefinição é 2. O máximo é 300.

minGram

O comprimento mínimo de n-gramas. A predefinição é 1. O máximo é 300. Tem de ser inferior ao valor de maxGram.

odatatype

Discriminador polimórfico, que especifica os diferentes tipos que este objeto pode ser

tokenChars

Classes de carateres a manter nos tokens.

Propriedades Herdadas

name

O nome do tokenizer. Só tem de conter letras, dígitos, espaços, travessões ou carateres de sublinhado, só pode começar e terminar com carateres alfanuméricos e está limitado a 128 carateres.

Detalhes de Propriedade

maxGram

O comprimento máximo de n-gramas. A predefinição é 2. O máximo é 300.

maxGram?: number

Valor de Propriedade

number

minGram

O comprimento mínimo de n-gramas. A predefinição é 1. O máximo é 300. Tem de ser inferior ao valor de maxGram.

minGram?: number

Valor de Propriedade

number

odatatype

Discriminador polimórfico, que especifica os diferentes tipos que este objeto pode ser

odatatype: "#Microsoft.Azure.Search.EdgeNGramTokenizer"

Valor de Propriedade

"#Microsoft.Azure.Search.EdgeNGramTokenizer"

tokenChars

Classes de carateres a manter nos tokens.

tokenChars?: TokenCharacterKind[]

Valor de Propriedade

Detalhes da Propriedade Herdada

name

O nome do tokenizer. Só tem de conter letras, dígitos, espaços, travessões ou carateres de sublinhado, só pode começar e terminar com carateres alfanuméricos e está limitado a 128 carateres.

name: string

Valor de Propriedade

string

Herdado deBaseLexicalTokenizer.name