AnalyzeTextOptions Klasse

Gibt einige Text- und Analysekomponenten an, die verwendet werden, um diesen Text in Token zu unterteilen.

Zum Senden an Azure müssen alle erforderlichen Parameter aufgefüllt werden.

Vererbung
azure.search.documents.indexes._generated._serialization.Model
AnalyzeTextOptions

Konstruktor

AnalyzeTextOptions(**kwargs)

Variablen

Name Beschreibung
text
str

Erforderlich. Der Text, der in Token unterteilt werden soll.

analyzer_name

Der Name des Analysetools, mit dem der angegebene Text unterbrochen werden soll. Wenn dieser Parameter nicht angegeben ist, müssen Sie stattdessen einen Tokenizer angeben. Die Tokenizer- und Analyseparameter schließen sich gegenseitig aus. Mögliche Werte sind: "ar.microsoft", "ar.lucene", "hy.lucene", "bn.microsoft", "eu.lucene", "bg.microsoft", "bg.lucene", "ca.microsoft", "ca.lucene", "zh- Hans.microsoft", "zh-Hans.lucene", "zh-Hant.microsoft", "zh-Hant.lucene", "hr.microsoft", "cs.microsoft", "cs.lucene", "da.microsoft", "da.lucene", "nl.microsoft", "nl.lucene", "en.microsoft", "en.lucene", "et.microsoft", "fi.microsoft", "fi.lucene", "fr.microsoft", "fr.lucene", "gl.lucene", "de.microsoft", "de.lucene", " el.microsoft", "el.lucene", "gu.microsoft", "he.microsoft", "hi.microsoft", "hi.lucene", "hu.microsoft", "hu.lucene", "is.microsoft", "id.microsoft", "id.lucene", "ga.lucene", "it.microsoft", "it.lucene", "ja.microsoft", "ja.lucene", "kn.microsoft", "ko.microsoft", "ko.lucene", "lv.microsoft", "lv.lucene", "lt.microsoft", "ml.microsoft", "ms.microsoft", "mr.microsoft", "nb.. microsoft", "no.lucene", "fa.lucene", "pl.microsoft", "pl.lucene", "pt-BR.microsoft", "pt-BR.lucene", "pt-BR.lucene", "pt- PT.microsoft", "pt-PT.lucene", "pa.microsoft", "ro.microsoft", "ro.lucene", "ru.microsoft", "ru.lucene", "sr-cyrillic.microsoft", "sr-latin.microsoft", "sk.microsoft", "sl.microsoft", "es.microsoft", "es.lucene", "sv.microsoft", "sv.lucene", "ta.microsoft", "te.microsoft", "th.microsoft", "th.lucene", "tr.microsoft", "tr.lucene", "uk.microsoft", "your.microsoft", "vi.microsoft", "standard.lucene", "standardasciifolding.lucene", " Schlüsselwort (keyword)", "pattern", "simple", "stop", "whitespace".

tokenizer_name

Der Name des Tokenizers, mit dem der angegebene Text unterbrochen werden soll. Wenn dieser Parameter nicht angegeben ist, müssen Sie stattdessen ein Analysetool angeben. Die Tokenizer- und Analyseparameter schließen sich gegenseitig aus. Mögliche Werte sind: "classic", "edgeNGram", "keyword_v2", "letter", "lowercase", "microsoft_language_tokenizer", "microsoft_language_stemming_tokenizer", "nGram", "path_hierarchy_v2", "pattern", "standard_v2", "uax_url_email", "whitespace".

token_filters

Eine optionale Liste von Tokenfiltern, die beim Brechen des angegebenen Texts verwendet werden sollen. Dieser Parameter kann nur mit dem Tokenizer-Parameter festgelegt werden.

char_filters

Eine optionale Liste von Zeichenfiltern, die beim Brechen des angegebenen Texts verwendet werden sollen. Dieser Parameter kann nur mit dem Tokenizer-Parameter festgelegt werden.

Methoden

as_dict

Gibt ein Diktat zurück, das mithilfe von json.dump serialisiert werden kann.

Bei erweiterter Verwendung kann optional ein Rückruf als Parameter verwendet werden:

Key ist der Attributname, der in Python verwendet wird. Attr_desc ist ein Dict von Metadaten. Enthält derzeit "type" mit dem msrest-Typ und "key" mit dem RestAPI-codierten Schlüssel. Value ist der aktuelle Wert in diesem Objekt.

Die zurückgegebene Zeichenfolge wird verwendet, um den Schlüssel zu serialisieren. Wenn der Rückgabetyp eine Liste ist, wird dies als hierarchisches Ergebnisdikt betrachtet.

Sehen Sie sich die drei Beispiele in dieser Datei an:

  • attribute_transformer

  • full_restapi_key_transformer

  • last_restapi_key_transformer

Wenn Sie die XML-Serialisierung wünschen, können Sie die kwargs is_xml=True übergeben.

deserialize

Analysieren Sie einen Str mithilfe der RestAPI-Syntax, und geben Sie ein Modell zurück.

enable_additional_properties_sending
from_dict

Analysieren eines Diktats mithilfe des angegebenen Schlüsselextraktors gibt ein Modell zurück.

Standardmäßig werden Schlüsselextraktoren (rest_key_case_insensitive_extractor, attribute_key_case_insensitive_extractor und last_rest_key_case_insensitive_extractor) berücksichtigt.

is_xml_model
serialize

Gibt den JSON-Code zurück, der von diesem Modell an den Server gesendet würde.

Dies ist ein Alias für as_dict(full_restapi_key_transformer, keep_readonly=False).

Wenn Sie die XML-Serialisierung wünschen, können Sie die kwargs is_xml=True übergeben.

as_dict

Gibt ein Diktat zurück, das mithilfe von json.dump serialisiert werden kann.

Bei erweiterter Verwendung kann optional ein Rückruf als Parameter verwendet werden:

Key ist der Attributname, der in Python verwendet wird. Attr_desc ist ein Dict von Metadaten. Enthält derzeit "type" mit dem msrest-Typ und "key" mit dem RestAPI-codierten Schlüssel. Value ist der aktuelle Wert in diesem Objekt.

Die zurückgegebene Zeichenfolge wird verwendet, um den Schlüssel zu serialisieren. Wenn der Rückgabetyp eine Liste ist, wird dies als hierarchisches Ergebnisdikt betrachtet.

Sehen Sie sich die drei Beispiele in dieser Datei an:

  • attribute_transformer

  • full_restapi_key_transformer

  • last_restapi_key_transformer

Wenn Sie die XML-Serialisierung wünschen, können Sie die kwargs is_xml=True übergeben.

as_dict(keep_readonly: bool = True, key_transformer: ~typing.Callable[[str, ~typing.Dict[str, ~typing.Any], ~typing.Any], ~typing.Any] = <function attribute_transformer>, **kwargs: ~typing.Any) -> MutableMapping[str, Any]

Parameter

Name Beschreibung
key_transformer
<xref:function>

Eine Schlüsseltransformerfunktion.

keep_readonly
Standardwert: True

Gibt zurück

Typ Beschreibung

Ein JSON-kompatibles Objekt mit Dict

deserialize

Analysieren Sie einen Str mithilfe der RestAPI-Syntax, und geben Sie ein Modell zurück.

deserialize(data: Any, content_type: str | None = None) -> ModelType

Parameter

Name Beschreibung
data
Erforderlich
str

Eine Str-Instanz mit RestAPI-Struktur. JSON standardmäßig.

content_type
str

JSON standardmäßig, legen Sie application/xml if XML fest.

Standardwert: None

Gibt zurück

Typ Beschreibung

Ein instance dieses Modells

Ausnahmen

Typ Beschreibung
DeserializationError if something went wrong

enable_additional_properties_sending

enable_additional_properties_sending() -> None

from_dict

Analysieren eines Diktats mithilfe des angegebenen Schlüsselextraktors gibt ein Modell zurück.

Standardmäßig werden Schlüsselextraktoren (rest_key_case_insensitive_extractor, attribute_key_case_insensitive_extractor und last_rest_key_case_insensitive_extractor) berücksichtigt.

from_dict(data: Any, key_extractors: Callable[[str, Dict[str, Any], Any], Any] | None = None, content_type: str | None = None) -> ModelType

Parameter

Name Beschreibung
data
Erforderlich

Ein Diktat mithilfe der RestAPI-Struktur

content_type
str

JSON standardmäßig, legen Sie application/xml if XML fest.

Standardwert: None
key_extractors
Standardwert: None

Gibt zurück

Typ Beschreibung

Ein instance dieses Modells

Ausnahmen

Typ Beschreibung
DeserializationError if something went wrong

is_xml_model

is_xml_model() -> bool

serialize

Gibt den JSON-Code zurück, der von diesem Modell an den Server gesendet würde.

Dies ist ein Alias für as_dict(full_restapi_key_transformer, keep_readonly=False).

Wenn Sie die XML-Serialisierung wünschen, können Sie die kwargs is_xml=True übergeben.

serialize(keep_readonly: bool = False, **kwargs: Any) -> MutableMapping[str, Any]

Parameter

Name Beschreibung
keep_readonly

Wenn Sie die schreibgeschützten Attribute serialisieren möchten

Standardwert: False

Gibt zurück

Typ Beschreibung

Ein JSON-kompatibles Objekt mit Dict