Dela via


CustomAnalyzer interface

Gör att du kan ta kontroll över processen att konvertera text till indexerbara/sökbara token. Det är en användardefinierad konfiguration som består av en enda fördefinierad tokenizer och ett eller flera filter. Tokenizern ansvarar för att dela upp text i token och filter för att ändra token som genereras av tokenizern.

Egenskaper

charFilters

En lista över teckenfilter som används för att förbereda indatatext innan den bearbetas av tokenizern. De kan till exempel ersätta vissa tecken eller symboler. Filtren körs i den ordning de visas.

name

Namnet på analysatorn. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

odatatype

Polymorft diskriminerande

tokenFilters

En lista över tokenfilter som används för att filtrera bort eller ändra token som genereras av en tokenizer. Du kan till exempel ange ett gemener som konverterar alla tecken till gemener. Filtren körs i den ordning de visas.

tokenizerName

Namnet på tokenizern som ska användas för att dela upp kontinuerlig text i en sekvens med token, till exempel att dela upp en mening i ord. KnownTokenizerNames är ett uppräkning som innehåller inbyggda tokenizernamn.

Egenskapsinformation

charFilters

En lista över teckenfilter som används för att förbereda indatatext innan den bearbetas av tokenizern. De kan till exempel ersätta vissa tecken eller symboler. Filtren körs i den ordning de visas.

charFilters?: string[]

Egenskapsvärde

string[]

name

Namnet på analysatorn. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

name: string

Egenskapsvärde

string

odatatype

Polymorft diskriminerande

odatatype: "#Microsoft.Azure.Search.CustomAnalyzer"

Egenskapsvärde

"#Microsoft.Azure.Search.CustomAnalyzer"

tokenFilters

En lista över tokenfilter som används för att filtrera bort eller ändra token som genereras av en tokenizer. Du kan till exempel ange ett gemener som konverterar alla tecken till gemener. Filtren körs i den ordning de visas.

tokenFilters?: string[]

Egenskapsvärde

string[]

tokenizerName

Namnet på tokenizern som ska användas för att dela upp kontinuerlig text i en sekvens med token, till exempel att dela upp en mening i ord. KnownTokenizerNames är ett uppräkning som innehåller inbyggda tokenizernamn.

tokenizerName: string

Egenskapsvärde

string