Condividi tramite


NGramTokenizer interface

Suddivide in token l'input in n-grammi di determinate dimensioni. Questo tokenizer viene implementato usando Apache Lucene.

Extends

Proprietà

maxGram

Lunghezza massima di n grammi. Il valore predefinito è 2. Il valore massimo è 300.

minGram

Lunghezza minima di n grammi. Il valore predefinito è 1. Il valore massimo è 300. Deve essere minore del valore di maxGram.

odatatype

Discriminare polimorfico, che specifica i diversi tipi che questo oggetto può essere

tokenChars

Classi di caratteri da mantenere nei token.

Proprietà ereditate

name

Nome del tokenizer. Può contenere solo lettere, numeri, spazi, trattini o caratteri di sottolineatura, deve iniziare e terminare con caratteri alfanumerici e non può contenere più di 128 caratteri.

Dettagli proprietà

maxGram

Lunghezza massima di n grammi. Il valore predefinito è 2. Il valore massimo è 300.

maxGram?: number

Valore della proprietà

number

minGram

Lunghezza minima di n grammi. Il valore predefinito è 1. Il valore massimo è 300. Deve essere minore del valore di maxGram.

minGram?: number

Valore della proprietà

number

odatatype

Discriminare polimorfico, che specifica i diversi tipi che questo oggetto può essere

odatatype: "#Microsoft.Azure.Search.NGramTokenizer"

Valore della proprietà

"#Microsoft.Azure.Search.NGramTokenizer"

tokenChars

Classi di caratteri da mantenere nei token.

tokenChars?: TokenCharacterKind[]

Valore della proprietà

Dettagli proprietà ereditate

name

Nome del tokenizer. Può contenere solo lettere, numeri, spazi, trattini o caratteri di sottolineatura, deve iniziare e terminare con caratteri alfanumerici e non può contenere più di 128 caratteri.

name: string

Valore della proprietà

string

Ereditato daBaseLexicalTokenizer.name