CustomAnalyzer interface
Umożliwia przejęcie kontroli nad procesem konwertowania tekstu na tokeny indeksowalne/wyszukiwalne. Jest to konfiguracja zdefiniowana przez użytkownika składająca się z jednego wstępnie zdefiniowanego tokenizatora i co najmniej jednego filtru. Tokenizer jest odpowiedzialny za podzielenie tekstu na tokeny, a filtry do modyfikowania tokenów emitowanych przez tokenizator.
Właściwości
char |
Lista filtrów znaków używanych do przygotowywania tekstu wejściowego przed jego przetworzeniem przez tokenizator. Mogą na przykład zastąpić niektóre znaki lub symbole. Filtry są uruchamiane w kolejności, w której są wyświetlane. |
name | Nazwa analizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się tylko znakami alfanumerycznymi i jest ograniczona do 128 znaków. |
odatatype | Dyskryminujące polimorficzne |
token |
Lista filtrów tokenów używanych do filtrowania lub modyfikowania tokenów generowanych przez tokenizator. Można na przykład określić małe litery filtru, który konwertuje wszystkie znaki na małe litery. Filtry są uruchamiane w kolejności, w której są wyświetlane. |
tokenizer |
Nazwa tokenizatora używanego do dzielenia tekstu ciągłego na sekwencję tokenów, na przykład dzielenie zdania na wyrazy. KnownTokenizerNames to wyliczenie zawierające wbudowane nazwy tokenizatorów. |
Szczegóły właściwości
charFilters
Lista filtrów znaków używanych do przygotowywania tekstu wejściowego przed jego przetworzeniem przez tokenizator. Mogą na przykład zastąpić niektóre znaki lub symbole. Filtry są uruchamiane w kolejności, w której są wyświetlane.
charFilters?: string[]
Wartość właściwości
string[]
name
Nazwa analizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się tylko znakami alfanumerycznymi i jest ograniczona do 128 znaków.
name: string
Wartość właściwości
string
odatatype
Dyskryminujące polimorficzne
odatatype: "#Microsoft.Azure.Search.CustomAnalyzer"
Wartość właściwości
"#Microsoft.Azure.Search.CustomAnalyzer"
tokenFilters
Lista filtrów tokenów używanych do filtrowania lub modyfikowania tokenów generowanych przez tokenizator. Można na przykład określić małe litery filtru, który konwertuje wszystkie znaki na małe litery. Filtry są uruchamiane w kolejności, w której są wyświetlane.
tokenFilters?: string[]
Wartość właściwości
string[]
tokenizerName
Nazwa tokenizatora używanego do dzielenia tekstu ciągłego na sekwencję tokenów, na przykład dzielenie zdania na wyrazy. KnownTokenizerNames to wyliczenie zawierające wbudowane nazwy tokenizatorów.
tokenizerName: string
Wartość właściwości
string