CustomAnalyzer interface
Ermöglicht Es Ihnen, die Kontrolle über den Prozess der Konvertierung von Text in indizierbare/durchsuchbare Token zu übernehmen. Es handelt sich um eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für das Aufteilen von Text in Token und die Filter zum Ändern von Token verantwortlich, die vom Tokenizer ausgegeben werden.
Eigenschaften
char |
Eine Liste von Zeichenfiltern, die zum Vorbereiten von Eingabetext verwendet werden, bevor er vom Tokenizer verarbeitet wird. Beispielsweise kann er bestimmte Zeichen oder Symbole ersetzen. Die Filter werden in der Reihenfolge ausgeführt, in der sie aufgelistet sind. |
name | Der Name des Analysetools. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein. |
odatatype | Polymorpher Diskriminator |
token |
Eine Liste von Tokenfiltern, die zum Herausfiltern oder Ändern der von einem Tokenizer generierten Token verwendet werden. Sie können beispielsweise einen Filter für Kleinbuchstaben angeben, mit dem alle Zeichen in Kleinbuchstaben konvertiert werden. Die Filter werden in der Reihenfolge ausgeführt, in der sie aufgelistet sind. |
tokenizer |
Der Name des Tokenizers, der verwendet werden soll, um fortlaufenden Text in eine Sequenz von Token zu unterteilen, z. B. einen Satz in Wörter aufzuteilen. KnownTokenizerNames ist eine Enumeration, die integrierte Tokenizernamen enthält. |
Details zur Eigenschaft
charFilters
Eine Liste von Zeichenfiltern, die zum Vorbereiten von Eingabetext verwendet werden, bevor er vom Tokenizer verarbeitet wird. Beispielsweise kann er bestimmte Zeichen oder Symbole ersetzen. Die Filter werden in der Reihenfolge ausgeführt, in der sie aufgelistet sind.
charFilters?: string[]
Eigenschaftswert
string[]
name
Der Name des Analysetools. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.
name: string
Eigenschaftswert
string
odatatype
Polymorpher Diskriminator
odatatype: "#Microsoft.Azure.Search.CustomAnalyzer"
Eigenschaftswert
"#Microsoft.Azure.Search.CustomAnalyzer"
tokenFilters
Eine Liste von Tokenfiltern, die zum Herausfiltern oder Ändern der von einem Tokenizer generierten Token verwendet werden. Sie können beispielsweise einen Filter für Kleinbuchstaben angeben, mit dem alle Zeichen in Kleinbuchstaben konvertiert werden. Die Filter werden in der Reihenfolge ausgeführt, in der sie aufgelistet sind.
tokenFilters?: string[]
Eigenschaftswert
string[]
tokenizerName
Der Name des Tokenizers, der verwendet werden soll, um fortlaufenden Text in eine Sequenz von Token zu unterteilen, z. B. einen Satz in Wörter aufzuteilen. KnownTokenizerNames ist eine Enumeration, die integrierte Tokenizernamen enthält.
tokenizerName: string
Eigenschaftswert
string