Share via


TokenizerName Struktur

Definition

Definiert die Namen aller Tokenizer, die von Azure Cognitive Search unterstützt werden. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

[Newtonsoft.Json.JsonConverter(typeof(Microsoft.Azure.Search.Serialization.ExtensibleEnumConverter<Microsoft.Azure.Search.Models.TokenizerName>))]
public struct TokenizerName : IEquatable<Microsoft.Azure.Search.Models.TokenizerName>
[<Newtonsoft.Json.JsonConverter(typeof(Microsoft.Azure.Search.Serialization.ExtensibleEnumConverter<Microsoft.Azure.Search.Models.TokenizerName>))>]
type TokenizerName = struct
Public Structure TokenizerName
Implements IEquatable(Of TokenizerName)
Vererbung
TokenizerName
Attribute
Newtonsoft.Json.JsonConverterAttribute
Implementiert

Felder

Classic

Grammatikbasiertes Tokenizer, das sich für die Verarbeitung der meisten dokumente in europäischer Sprache eignet. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

EdgeNGram

Tokenisiert die Eingabe von einer Kante in n Gramm der angegebenen Größe(n). https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

Keyword

Gibt die gesamte Eingabe als ein einzelnes Token aus. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

Letter

Teilt Text in nicht-Buchstaben. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

Lowercase

Teilt Text an Nicht-Buchstaben und konvertiert ihn in Kleinbuchstaben. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

MicrosoftLanguageStemmingTokenizer

Teilt Text nach sprachspezifischen Regeln auf und reduziert Wörter auf deren Grundformen.

MicrosoftLanguageTokenizer

Teilt Text mit sprachspezifische Regeln auf.

NGram

Tokenisiert die Eingabe in N-Gramme einer festgelegten Größe. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

PathHierarchy

Tokenizer für pfadähnliche Hierarchien. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

Pattern

Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

Standard

Standard-Lucene-Analysetool; Besteht aus dem Standardtokenizer, dem Kleinbuchstabenfilter und dem Stoppfilter. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

UaxUrlEmail

Tokenisiert URLs und E-Mails als ein Token. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

Whitespace

Teilt Text an den Leerzeichen auf. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

Methoden

Equals(Object)

Bestimmt, ob das angegebene Objekt gleich dem aktuellen Objekt ist.

Equals(TokenizerName)

Vergleicht tokenizerName auf Gleichheit mit einem anderen TokenizerName.

GetHashCode()

Fungiert als Standardhashfunktion.

ToString()

Gibt eine Zeichenfolgendarstellung des TokenizerName zurück.

Operatoren

Equality(TokenizerName, TokenizerName)

Vergleicht zwei TokenizerName-Werte auf Gleichheit.

Explicit(TokenizerName to String)

Definiert die explizite Konvertierung von TokenizerName in Zeichenfolge.

Implicit(String to TokenizerName)

Definiert die implizite Konvertierung von string in TokenizerName.

Inequality(TokenizerName, TokenizerName)

Vergleicht zwei TokenizerName-Werte auf Ungleichheit.

Gilt für: