CustomAnalyzer interface
Gör att du kan ta kontroll över processen att konvertera text till indexerbara/sökbara token. Det är en användardefinierad konfiguration som består av en enda fördefinierad tokenizer och ett eller flera filter. Tokenizern ansvarar för att dela upp text i token och filter för att ändra token som genereras av tokenizern.
Egenskaper
| char |
En lista över teckenfilter som används för att förbereda indatatext innan den bearbetas av tokenizern. De kan till exempel ersätta vissa tecken eller symboler. Filtren körs i den ordning de visas. |
| name | Namnet på analysatorn. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken. |
| odatatype | Polymorft diskriminerande |
| token |
En lista över tokenfilter som används för att filtrera bort eller ändra token som genereras av en tokenizer. Du kan till exempel ange ett gemener som konverterar alla tecken till gemener. Filtren körs i den ordning de visas. |
| tokenizer |
Namnet på tokenizern som ska användas för att dela upp kontinuerlig text i en sekvens med token, till exempel att dela upp en mening i ord. KnownTokenizerNames är ett uppräkning som innehåller inbyggda tokenizernamn. |
Egenskapsinformation
charFilters
En lista över teckenfilter som används för att förbereda indatatext innan den bearbetas av tokenizern. De kan till exempel ersätta vissa tecken eller symboler. Filtren körs i den ordning de visas.
charFilters?: string[]
Egenskapsvärde
string[]
name
Namnet på analysatorn. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.
name: string
Egenskapsvärde
string
odatatype
Polymorft diskriminerande
odatatype: "#Microsoft.Azure.Search.CustomAnalyzer"
Egenskapsvärde
"#Microsoft.Azure.Search.CustomAnalyzer"
tokenFilters
En lista över tokenfilter som används för att filtrera bort eller ändra token som genereras av en tokenizer. Du kan till exempel ange ett gemener som konverterar alla tecken till gemener. Filtren körs i den ordning de visas.
tokenFilters?: string[]
Egenskapsvärde
string[]
tokenizerName
Namnet på tokenizern som ska användas för att dela upp kontinuerlig text i en sekvens med token, till exempel att dela upp en mening i ord. KnownTokenizerNames är ett uppräkning som innehåller inbyggda tokenizernamn.
tokenizerName: string
Egenskapsvärde
string