ClassicTokenizer interface
Tokenizator oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.
- Extends
Właściwości
max |
Maksymalna długość tokenu. Wartość domyślna to 255. Tokeny dłuższe niż maksymalna długość są dzielone. Maksymalna długość tokenu, która może być używana, to 300 znaków. |
odatatype | Dyskryminator polimorficzny, który określa różne typy, które mogą być tym obiektem |
Właściwości dziedziczone
name | Nazwa tokenizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się wyłącznie znakami alfanumerycznymi i jest ograniczona do 128 znaków. |
Szczegóły właściwości
maxTokenLength
Maksymalna długość tokenu. Wartość domyślna to 255. Tokeny dłuższe niż maksymalna długość są dzielone. Maksymalna długość tokenu, która może być używana, to 300 znaków.
maxTokenLength?: number
Wartość właściwości
number
odatatype
Dyskryminator polimorficzny, który określa różne typy, które mogą być tym obiektem
odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"
Wartość właściwości
"#Microsoft.Azure.Search.ClassicTokenizer"
Szczegóły właściwości dziedziczonej
name
Nazwa tokenizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się wyłącznie znakami alfanumerycznymi i jest ograniczona do 128 znaków.
name: string
Wartość właściwości
string
Dziedziczone zBaseLexicalTokenizer.name