Share via


MicrosoftLanguageStemmingTokenizer Klasse

Definition

Teilt Text nach sprachspezifischen Regeln auf und reduziert Wörter auf deren Grundformen.

[Newtonsoft.Json.JsonObject("#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer")]
public class MicrosoftLanguageStemmingTokenizer : Microsoft.Azure.Search.Models.Tokenizer
[<Newtonsoft.Json.JsonObject("#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer")>]
type MicrosoftLanguageStemmingTokenizer = class
    inherit Tokenizer
Public Class MicrosoftLanguageStemmingTokenizer
Inherits Tokenizer
Vererbung
MicrosoftLanguageStemmingTokenizer
Attribute
Newtonsoft.Json.JsonObjectAttribute

Konstruktoren

MicrosoftLanguageStemmingTokenizer()

Initialisiert eine neue instance der MicrosoftLanguageStemmingTokenizer-Klasse.

MicrosoftLanguageStemmingTokenizer(String, Nullable<Int32>, Nullable<Boolean>, Nullable<MicrosoftStemmingTokenizerLanguage>)

Initialisiert eine neue instance der MicrosoftLanguageStemmingTokenizer-Klasse.

Eigenschaften

IsSearchTokenizer

Ruft einen Wert ab, der angibt, wie der Tokenizer verwendet wird, oder legt einen Wert fest. Legen Sie bei Verwendung als Suchtokenizer auf TRUE fest, und legen Sie auf false fest, wenn sie als Indizierungstokenizer verwendet wird. Der Standardwert ist "false".

Language

Ruft die zu verwendende Sprache ab oder legt sie fest. Der Standardwert ist Englisch. Mögliche Werte sind: "arabisch", "bangla", "bulgarisch", "katalanisch", "kroatisch", "czech", "danish", "dutch", "english", "estonian", "finnish", "french", "german", "greek", "gujarati", "hebrew", "hindi", "hungarian", "isländisch", "indonesian", "italian", "kannada", "latvian", "lithuanian", "malay", "malayalam", "marathi", "norwegianBokmaal", "polish", "portugiesischBrazilian", "punjabi", "romanian", "russian", "serbianCyrillic", "serbianLatin", "slovak", "slowenisch", "spanisch", "schwedisch", "tamilisch", "telugu", "türkisch", "ukrainisch", "urdu"

MaxTokenLength

Ruft die maximale Tokenlänge ab oder legt sie fest. Token, die die maximale Länge überschreiten, werden geteilt. Ein Token darf maximal 300 Zeichen lang sein. Token, die länger als 300 Zeichen sind, werden zunächst in Token mit der Länge 300 aufgeteilt, und dann wird jedes dieser Token basierend auf der maximalen Tokenlänge aufgeteilt. Der Standardwert ist 255.

Name

Ruft den Namen des Tokenizers ab oder legt den Namen fest. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

(Geerbt von Tokenizer)

Methoden

Validate()

Überprüfen Sie das Objekt.

Gilt für: