Delen via


KeywordTokenizer interface

Verzendt de volledige invoer als één token. Deze tokenizer wordt geïmplementeerd met apache Lucene.

Eigenschappen

maxTokenLength

De maximale tokenlengte. De standaardwaarde is 256. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens. Standaardwaarde: 256.

name

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

odatatype

Polymorfe discriminator

Eigenschapdetails

maxTokenLength

De maximale tokenlengte. De standaardwaarde is 256. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens. Standaardwaarde: 256.

maxTokenLength?: number

Waarde van eigenschap

number

name

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

name: string

Waarde van eigenschap

string

odatatype

Polymorfe discriminator

odatatype: "#Microsoft.Azure.Search.KeywordTokenizer" | "#Microsoft.Azure.Search.KeywordTokenizerV2"

Waarde van eigenschap

"#Microsoft.Azure.Search.KeywordTokenizer" | "#Microsoft.Azure.Search.KeywordTokenizerV2"