Share via


MicrosoftLanguageTokenizer Klasse

Definition

Teilt Text mit sprachspezifische Regeln auf.

[Newtonsoft.Json.JsonObject("#Microsoft.Azure.Search.MicrosoftLanguageTokenizer")]
public class MicrosoftLanguageTokenizer : Microsoft.Azure.Search.Models.Tokenizer
[<Newtonsoft.Json.JsonObject("#Microsoft.Azure.Search.MicrosoftLanguageTokenizer")>]
type MicrosoftLanguageTokenizer = class
    inherit Tokenizer
Public Class MicrosoftLanguageTokenizer
Inherits Tokenizer
Vererbung
MicrosoftLanguageTokenizer
Attribute
Newtonsoft.Json.JsonObjectAttribute

Konstruktoren

MicrosoftLanguageTokenizer()

Initialisiert eine neue instance der MicrosoftLanguageTokenizer-Klasse.

MicrosoftLanguageTokenizer(String, Nullable<Int32>, Nullable<Boolean>, Nullable<MicrosoftTokenizerLanguage>)

Initialisiert eine neue instance der MicrosoftLanguageTokenizer-Klasse.

Eigenschaften

IsSearchTokenizer

Ruft einen Wert ab, der angibt, wie der Tokenizer verwendet wird, oder legt einen Wert fest. Legen Sie bei Verwendung als Suchtokenizer auf TRUE fest, und legen Sie auf false fest, wenn sie als Indizierungstokenizer verwendet wird. Der Standardwert ist "false".

Language

Ruft die zu verwendende Sprache ab oder legt sie fest. Der Standardwert ist Englisch. Mögliche Werte sind: "bangla", "bulgarian", "catalan", "chineseSimplified", "chineseTraditional", "croatian", "czech", "danish", "dutch", "english", "french", "german", "greek", "gujarati", "hindi", "isländisch", "indonesisch", "italian", "japanese", "kannada", "korean", "malay", "malayalam", "marathi", "norwegianBokmaal", "polish", "portugueseBrazilian", "punjabi", "romanian", "russian", "serbianCyrillic", "serbianLatin", "slovenian", "spanish", "swedish", "tamil", " telugu', 'thai', 'ukrainisch', 'urdu', 'vietnamesisch'

MaxTokenLength

Ruft die maximale Tokenlänge ab oder legt sie fest. Token, die die maximale Länge überschreiten, werden geteilt. Ein Token darf maximal 300 Zeichen lang sein. Token, die länger als 300 Zeichen sind, werden zunächst in Token mit der Länge 300 aufgeteilt, und dann wird jedes dieser Token basierend auf der maximalen Tokenlänge aufgeteilt. Der Standardwert ist 255.

Name

Ruft den Namen des Tokenizers ab oder legt den Namen fest. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

(Geerbt von Tokenizer)

Methoden

Validate()

Überprüfen Sie das Objekt.

Gilt für: