Udostępnij za pośrednictwem


ClassicTokenizer interface

Tokenizator oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

Extends

Właściwości

maxTokenLength

Maksymalna długość tokenu. Wartość domyślna to 255. Tokeny dłuższe niż maksymalna długość są dzielone. Maksymalna długość tokenu, która może być używana, to 300 znaków.

odatatype

Dyskryminator polimorficzny, który określa różne typy, które mogą być tym obiektem

Właściwości dziedziczone

name

Nazwa tokenizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się wyłącznie znakami alfanumerycznymi i jest ograniczona do 128 znaków.

Szczegóły właściwości

maxTokenLength

Maksymalna długość tokenu. Wartość domyślna to 255. Tokeny dłuższe niż maksymalna długość są dzielone. Maksymalna długość tokenu, która może być używana, to 300 znaków.

maxTokenLength?: number

Wartość właściwości

number

odatatype

Dyskryminator polimorficzny, który określa różne typy, które mogą być tym obiektem

odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"

Wartość właściwości

"#Microsoft.Azure.Search.ClassicTokenizer"

Szczegóły właściwości dziedziczonej

name

Nazwa tokenizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się wyłącznie znakami alfanumerycznymi i jest ograniczona do 128 znaków.

name: string

Wartość właściwości

string

Dziedziczone zBaseLexicalTokenizer.name