Bagikan melalui


NGramTokenizer interface

Tokenisasi input menjadi n-gram dari ukuran yang diberikan. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

Extends

Properti

maxGram

Panjang maksimum n-gram. Defaultnya adalah 2. Maksimum adalah 300.

minGram

Panjang n-gram minimum. Defaultnya adalah 1. Maksimum adalah 300. Harus kurang dari nilai maxGram.

odatatype

Diskriminator polimorfik, yang menentukan berbagai jenis objek ini dapat

tokenChars

Kelas karakter untuk disimpan dalam token.

Properti yang Diwariskan

name

Nama tokenizer. Nama hanya boleh berisi huruf, digit, spasi, garis putus-putus, atau garis bawah, hanya dapat dimulai dan diakhiri dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

Detail Properti

maxGram

Panjang maksimum n-gram. Defaultnya adalah 2. Maksimum adalah 300.

maxGram?: number

Nilai Properti

number

minGram

Panjang n-gram minimum. Defaultnya adalah 1. Maksimum adalah 300. Harus kurang dari nilai maxGram.

minGram?: number

Nilai Properti

number

odatatype

Diskriminator polimorfik, yang menentukan berbagai jenis objek ini dapat

odatatype: "#Microsoft.Azure.Search.NGramTokenizer"

Nilai Properti

"#Microsoft.Azure.Search.NGramTokenizer"

tokenChars

Kelas karakter untuk disimpan dalam token.

tokenChars?: TokenCharacterKind[]

Nilai Properti

Detail Properti yang Diwariskan

name

Nama tokenizer. Nama hanya boleh berisi huruf, digit, spasi, garis putus-putus, atau garis bawah, hanya dapat dimulai dan diakhiri dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

name: string

Nilai Properti

string

Diwarisi DariBaseLexicalTokenizer.name