NGramTokenizer interface
Tokenisasi input menjadi n-gram dari ukuran yang diberikan. Tokenizer ini diimplementasikan menggunakan Apache Lucene.
- Extends
Properti
max |
Panjang maksimum n-gram. Defaultnya adalah 2. Maksimum adalah 300. |
min |
Panjang n-gram minimum. Defaultnya adalah 1. Maksimum adalah 300. Harus kurang dari nilai maxGram. |
odatatype | Diskriminator polimorfik, yang menentukan berbagai jenis objek ini dapat |
token |
Kelas karakter untuk disimpan dalam token. |
Properti yang Diwariskan
name | Nama tokenizer. Nama hanya boleh berisi huruf, digit, spasi, garis putus-putus, atau garis bawah, hanya dapat dimulai dan diakhiri dengan karakter alfanumerik, dan dibatasi hingga 128 karakter. |
Detail Properti
maxGram
Panjang maksimum n-gram. Defaultnya adalah 2. Maksimum adalah 300.
maxGram?: number
Nilai Properti
number
minGram
Panjang n-gram minimum. Defaultnya adalah 1. Maksimum adalah 300. Harus kurang dari nilai maxGram.
minGram?: number
Nilai Properti
number
odatatype
Diskriminator polimorfik, yang menentukan berbagai jenis objek ini dapat
odatatype: "#Microsoft.Azure.Search.NGramTokenizer"
Nilai Properti
"#Microsoft.Azure.Search.NGramTokenizer"
tokenChars
Kelas karakter untuk disimpan dalam token.
tokenChars?: TokenCharacterKind[]
Nilai Properti
Detail Properti yang Diwariskan
name
Nama tokenizer. Nama hanya boleh berisi huruf, digit, spasi, garis putus-putus, atau garis bawah, hanya dapat dimulai dan diakhiri dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.
name: string
Nilai Properti
string
Diwarisi DariBaseLexicalTokenizer.name