Udostępnij za pośrednictwem


NGramTokenizer interface

Tokenizuje dane wejściowe do n-gramów podanych rozmiarów. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

Extends

Właściwości

maxGram

Maksymalna długość n-grama. Wartość domyślna to 2. Maksymalna wartość to 300.

minGram

Minimalna długość n-grama. Domyślna wartość wynosi 1. Maksymalna wartość to 300. Musi być mniejsza niż wartość maxGram.

odatatype

Dyskryminujący polimorficzny, który określa różne typy tego obiektu może być

tokenChars

Klasy znaków do przechowywania w tokenach.

Właściwości dziedziczone

name

Nazwa tokenizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się tylko znakami alfanumerycznymi i jest ograniczona do 128 znaków.

Szczegóły właściwości

maxGram

Maksymalna długość n-grama. Wartość domyślna to 2. Maksymalna wartość to 300.

maxGram?: number

Wartość właściwości

number

minGram

Minimalna długość n-grama. Domyślna wartość wynosi 1. Maksymalna wartość to 300. Musi być mniejsza niż wartość maxGram.

minGram?: number

Wartość właściwości

number

odatatype

Dyskryminujący polimorficzny, który określa różne typy tego obiektu może być

odatatype: "#Microsoft.Azure.Search.NGramTokenizer"

Wartość właściwości

"#Microsoft.Azure.Search.NGramTokenizer"

tokenChars

Klasy znaków do przechowywania w tokenach.

tokenChars?: TokenCharacterKind[]

Wartość właściwości

Szczegóły właściwości dziedziczonej

name

Nazwa tokenizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się tylko znakami alfanumerycznymi i jest ograniczona do 128 znaków.

name: string

Wartość właściwości

string

Dziedziczone zBaseLexicalTokenizer.name