Freigeben über


@azure/search-documents package

Klassen

AzureKeyCredential

Statische Schlüsselbasierte Anmeldeinformationen, die das Aktualisieren des zugrunde liegenden Schlüsselwerts unterstützen.

GeographyPoint

Stellt einen geografischen Punkt in globalen Koordinaten dar.

IndexDocumentsBatch

Klasse, die zum Ausführen von Batchvorgängen mit mehreren Dokumenten im Index verwendet wird.

SearchClient

Klasse, die zum Ausführen von Vorgängen für einen Suchindex verwendet wird, einschließlich Abfragen von Dokumenten im Index sowie Hinzufügen, Aktualisieren und Entfernen von Dokumenten.

SearchIndexClient

Klasse zum Ausführen von Vorgängen zum Verwalten (Erstellen, Aktualisieren, Auflisten/Löschen) & Synonymmaps.

SearchIndexerClient

Klasse zum Ausführen von Vorgängen zum Verwalten (Erstellen, Aktualisieren, Listen/Löschen) von Indexern, Datenquellen & Skillsets.

SearchIndexingBufferedSender

Klasse, die zum Ausführen von gepufferten Vorgängen für einen Suchindex verwendet wird, einschließlich Hinzufügen, Aktualisieren und Entfernen dieser Vorgänge.

Schnittstellen

AnalyzeRequest

Gibt einige Text- und Analysekomponenten an, die zum Aufteilen dieses Texts in Token verwendet werden.

AnalyzeResult

Das Ergebnis des Tests eines Analyzers auf Text.

AnalyzedTokenInfo

Informationen zu einem token, das von einem Analyzer zurückgegeben wird.

AsciiFoldingTokenFilter

Konvertiert alphabetische, numerische und symbolische Unicode-Zeichen, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") befinden, in ihre ASCII-Entsprechungen, wenn solche Entsprechungen vorhanden sind. Dieser Tokenfilter wird mit Apache Lucene implementiert.

AutocompleteItem

Das Ergebnis von AutoVervollständigen-Anforderungen.

AutocompleteRequest

Parameter für fuzzy matching, and other autocomplete query behaviors.

AutocompleteResult

Das Ergebnis der AutoVervollständigen-Abfrage.

AzureActiveDirectoryApplicationCredentials

Anmeldeinformationen einer registrierten Anwendung, die für Ihren Suchdienst erstellt wurde und für authentifizierten Zugriff auf die im Azure Key Vault gespeicherten Verschlüsselungsschlüssel verwendet wird.

AzureOpenAIEmbeddingSkill

Ermöglicht es Ihnen, einen Vektoreinbettung für eine bestimmte Texteingabe mithilfe der Azure OpenAI-Ressource zu generieren.

AzureOpenAIParameters

Enthält die Parameter, die für die Verwendung eines Azure Open AI-Diensts für die Vektorisierung zur Abfragezeit spezifisch sind.

AzureOpenAIVectorizer

Enthält die Parameter, die für die Verwendung eines Azure Open AI-Diensts für die Vektorisierung zur Abfragezeit spezifisch sind.

BM25Similarity

Bewertungsfunktion basierend auf dem Okapi BM25 Ähnlichkeitsalgorithmus. BM25 ist ein TF-IDF-like-Algorithmus, der die Längennormalisierung (gesteuert durch den Parameter "b") sowie die Begriffsfrequenzsättigung (gesteuert durch den Parameter "k1") enthält.

BaseCharFilter

Basistyp für Zeichenfilter.

BaseCognitiveServicesAccount

Basistyp für die Beschreibung einer Azure AI-Dienstressource, die einem Skillset zugeordnet ist.

BaseDataChangeDetectionPolicy

Basistyp für Datenänderungserkennungsrichtlinien.

BaseDataDeletionDetectionPolicy

Basistyp für Erkennungsrichtlinien für die Datenlöschung.

BaseLexicalAnalyzer

Basistyp für Analysegeräte.

BaseLexicalTokenizer

Basistyp für Tokenizer.

BaseScoringFunction

Basistyp für Funktionen, die Dokumentergebnisse während der Rangfolge ändern können.

BaseSearchIndexerDataIdentity

Abstrakter Basistyp für Datenidentitäten.

BaseSearchIndexerSkill

Basistyp für Fähigkeiten.

BaseSearchRequestOptions

Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten.

BaseTokenFilter

Basistyp für Tokenfilter.

BaseVectorQuery

Die Abfrageparameter für Vektor- und Hybridsuchabfragen.

BaseVectorSearchAlgorithmConfiguration

Enthält konfigurationsspezifische Optionen für den Algorithmus, der während der Indizierung und/oder Abfrage verwendet wird.

BaseVectorSearchCompression

Enthält konfigurationsspezifische Optionen für die Komprimierungsmethode, die während der Indizierung oder Abfrage verwendet wird.

BaseVectorSearchVectorizer

Enthält spezifische Details für eine Vektorisierungsmethode, die während der Abfragezeit verwendet werden soll.

BinaryQuantizationCompression

Enthält konfigurationsspezifische Konfigurationsoptionen für die Komprimierungsmethode der binären Quantisierung, die während der Indizierung und Abfrage verwendet wird.

CjkBigramTokenFilter

Bildet Bigrams von CJK-Ausdrücken, die aus dem Standardtokenizer generiert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert.

ClassicSimilarity

Legacy-Ähnlichkeitsalgorithmus, der die Lucene TFIDFSimilarity-Implementierung von TF-IDF verwendet. Diese Variation von TF-IDF führt die Normalisierung statischer Dokumente sowie die Koordinierung von Faktoren ein, die Dokumente benachteiligen, die nur teilweise mit den durchsuchten Abfragen übereinstimmen.

ClassicTokenizer

Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente mit europäischer Sprache geeignet ist. Dieser Tokenizer wird mit Apache Lucene implementiert.

CognitiveServicesAccountKey

Der Multi-Region-Kontoschlüssel einer Azure AI-Dienstressource, die einem Skillset zugeordnet ist.

CommonGramTokenFilter

Erstellen Sie Bigrams für häufig vorkommende Ausdrücke während der Indizierung. Einzelne Begriffe sind auch weiterhin indiziert, wobei Bigrams überlagert sind. Dieser Tokenfilter wird mit Apache Lucene implementiert.

ComplexField

Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt.

ConditionalSkill

Eine Fähigkeit, die Szenarien ermöglicht, die einen booleschen Vorgang erfordern, um die Daten zu bestimmen, die einer Ausgabe zugewiesen werden sollen.

CorsOptions

Definiert Optionen zum Steuern der cross-Origin Resource Sharing (CORS) für einen Index.

CreateOrUpdateIndexOptions

Optionen zum Erstellen/Aktualisieren des Indexvorgangs.

CreateOrUpdateSkillsetOptions

Optionen zum Erstellen/Aktualisieren des Skillset-Vorgangs.

CreateOrUpdateSynonymMapOptions

Optionen zum Erstellen/Aktualisieren des Synonymmap-Vorgangs.

CreateorUpdateDataSourceConnectionOptions

Optionen zum Erstellen/Aktualisieren des Datenquellenvorgangs.

CreateorUpdateIndexerOptions

Optionen zum Erstellen/Aktualisieren des Indexervorgangs.

CustomAnalyzer

Ermöglicht es Ihnen, den Prozess der Konvertierung von Text in in indizierbare/durchsuchbare Token zu übernehmen. Es ist eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für das Aufteilen von Text in Token verantwortlich, und die Filter zum Ändern von Token, die vom Tokenizer ausgegeben werden.

CustomEntity

Ein Objekt, das Informationen zu den gefundenen Übereinstimmungen und verwandten Metadaten enthält.

CustomEntityAlias

Ein komplexes Objekt, das verwendet werden kann, um alternative Schreibweisen oder Synonyme für den Namen der Stammentität anzugeben.

CustomEntityLookupSkill

Eine Fähigkeit sucht nach Text aus einer benutzerdefinierten, benutzerdefinierten Liste von Wörtern und Ausdrücken.

DefaultCognitiveServicesAccount

Ein leeres Objekt, das die standardmäßige Azure AI-Dienstressource für ein Skillset darstellt.

DeleteDataSourceConnectionOptions

Optionen zum Löschen des Datenquellenvorgangs.

DeleteIndexOptions

Optionen für den Löschindexvorgang.

DeleteIndexerOptions

Optionen zum Löschen des Indexervorgangs.

DeleteSkillsetOptions

Optionen zum Löschen von Skillset-Operaion.

DeleteSynonymMapOptions

Optionen zum Löschen des Synonymmap-Vorgangs.

DictionaryDecompounderTokenFilter

Dekompiliert zusammengesetzte Wörter in vielen germanischen Sprachen. Dieser Tokenfilter wird mit Apache Lucene implementiert.

DistanceScoringFunction

Definiert eine Funktion, die Bewertungen basierend auf der Entfernung von einem geografischen Standort erhöht.

DistanceScoringParameters

Stellt Parameterwerte für eine Entfernungsbewertungsfunktion bereit.

DocumentExtractionSkill

Eine Fähigkeit, die Inhalte aus einer Datei in der Anreicherungspipeline extrahiert.

EdgeNGramTokenFilter

Generiert n Gramm der angegebenen Größe(n) beginnend von vorne oder hinten eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert.

EdgeNGramTokenizer

Tokenisiert die Eingabe von einem Rand in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mit Apache Lucene implementiert.

ElisionTokenFilter

Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Dieser Tokenfilter wird mit Apache Lucene implementiert.

EntityLinkingSkill

Mithilfe der Text Analytics-API werden verknüpfte Entitäten aus Text extrahiert.

EntityRecognitionSkill

Erkennung der Textanalyseentität.

EntityRecognitionSkillV3

Mithilfe der Textanalyse-API werden Entitäten unterschiedlicher Typen aus Text extrahiert.

ExhaustiveKnnParameters

Enthält die für den vollständigen KNN-Algorithmus spezifischen Parameter.

ExtractiveQueryAnswer

Extrahiert Antwortkandidaten aus dem Inhalt der zurückgegebenen Dokumente als Antwort auf eine Abfrage, die als Frage in natürlicher Sprache ausgedrückt wird.

ExtractiveQueryCaption

Extrahiert Beschriftungen aus den übereinstimmenden Dokumenten, die Passagen enthalten, die für die Suchabfrage relevant sind.

FacetResult

Ein einzelner Bucket eines Facetabfrageergebnisses. Meldet die Anzahl der Dokumente mit einem Feldwert, der in einen bestimmten Bereich fällt oder einen bestimmten Wert oder ein bestimmtes Intervall aufweist.

FieldMapping

Definiert eine Zuordnung zwischen einem Feld in einer Datenquelle und einem Zielfeld in einem Index.

FieldMappingFunction

Stellt eine Funktion dar, die einen Wert aus einer Datenquelle vor der Indizierung transformiert.

FreshnessScoringFunction

Definiert eine Funktion, die Bewertungen basierend auf dem Wert eines Datum-Uhrzeit-Felds erhöht.

FreshnessScoringParameters

Stellt Parameterwerte für eine Aktualitätsbewertungsfunktion bereit.

GetDocumentOptions

Optionen zum Abrufen eines einzelnen Dokuments.

HighWaterMarkChangeDetectionPolicy

Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen basierend auf dem Wert einer Wasserzeichenspalte erfasst.

HnswParameters

Enthält die für den Hnsw-Algorithmus spezifischen Parameter.

ImageAnalysisSkill

Eine Fähigkeit, die Bilddateien analysiert. Es extrahiert eine vielzahl von visuellen Features basierend auf dem Bildinhalt.

IndexDocumentsClient

Index Documents Client

IndexDocumentsOptions

Optionen für den Indexbatchvorgang ändern.

IndexDocumentsResult

Antwort, die den Status der Vorgänge für alle Dokumente in der Indizierungsanforderung enthält.

IndexerExecutionResult

Stellt das Ergebnis einer einzelnen Indexerausführung dar.

IndexingParameters

Stellt Parameter für die Indizierungsausführung dar.

IndexingParametersConfiguration

Ein Wörterbuch mit indexerspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen.

IndexingResult

Status eines Indizierungsvorgangs für ein einzelnes Dokument.

IndexingSchedule

Stellt einen Zeitplan für die Indizierungsausführung dar.

InputFieldMappingEntry

Eingabefeldzuordnung für eine Fähigkeit.

KeepTokenFilter

Ein Tokenfilter, der Token nur mit Text in einer angegebenen Liste von Wörtern speichert. Dieser Tokenfilter wird mit Apache Lucene implementiert.

KeyPhraseExtractionSkill

Eine Fähigkeit, die Textanalyse für die Extraktion von Schlüsselausdrücken verwendet.

KeywordMarkerTokenFilter

Markiert Ausdrücke als Schlüsselwörter. Dieser Tokenfilter wird mit Apache Lucene implementiert.

KeywordTokenizer

Gibt die gesamte Eingabe als einzelnes Token aus. Dieser Tokenizer wird mit Apache Lucene implementiert.

LanguageDetectionSkill

Eine Fähigkeit, die sprache des Eingabetexts zu erkennen und meldet einen einzigen Sprachcode für jedes Dokument, das auf der Anforderung übermittelt wurde. Der Sprachcode wird mit einer Bewertung gekoppelt, die die Konfidenz der Analyse angibt.

LengthTokenFilter

Entfernt Wörter, die zu lang oder zu kurz sind. Dieser Tokenfilter wird mit Apache Lucene implementiert.

LimitTokenFilter

Beschränkt die Anzahl der Token während der Indizierung. Dieser Tokenfilter wird mit Apache Lucene implementiert.

ListSearchResultsPageSettings

Argumente zum Abrufen der nächsten Seite der Suchergebnisse.

LuceneStandardAnalyzer

Standard Apache Lucene Analyzer; Zusammengesetzt aus dem Standardmäßigen Tokenizer, Kleinbuchstabenfilter und Stoppfilter.

LuceneStandardTokenizer

Umbricht Text nach den Unicode-Textsegmentierungsregeln. Dieser Tokenizer wird mit Apache Lucene implementiert.

MagnitudeScoringFunction

Definiert eine Funktion, die Bewertungen basierend auf der Größe eines numerischen Felds erhöht.

MagnitudeScoringParameters

Stellt Parameterwerte für eine Bewertungsfunktion der Größe bereit.

MappingCharFilter

Ein Zeichenfilter, der Zuordnungen anwendet, die mit der Zuordnungsoption definiert sind. Der Abgleich ist gierig (längster Musterabgleich bei einem bestimmten Punkt gewinnt). Ersetzung darf die leere Zeichenfolge sein. Dieser Zeichenfilter wird mit Apache Lucene implementiert.

MergeSkill

Eine Fähigkeit zum Zusammenführen von zwei oder mehr Zeichenfolgen in einer einzigen einheitlichen Zeichenfolge mit einem optionalen benutzerdefinierten Trennzeichen, das jeden Komponententeil trennt.

MicrosoftLanguageStemmingTokenizer

Dividiert Text mithilfe von sprachspezifischen Regeln und reduziert Wörter auf ihre Basisformulare.

MicrosoftLanguageTokenizer

Dividiert Text mithilfe sprachspezifischer Regeln.

NGramTokenFilter

Generiert n Gramm der angegebenen Größe(n). Dieser Tokenfilter wird mit Apache Lucene implementiert.

NGramTokenizer

Tokenisiert die Eingabe in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mit Apache Lucene implementiert.

OcrSkill

Eine Fähigkeit, die Text aus Bilddateien extrahiert.

OutputFieldMappingEntry

Ausgabefeldzuordnung für eine Fähigkeit.

PIIDetectionSkill

Mithilfe der Text Analytics-API werden persönliche Informationen aus einem Eingabetext extrahiert und sie maskieren können.

PathHierarchyTokenizer

Tokenizer für pfadähnliche Hierarchien. Dieser Tokenizer wird mit Apache Lucene implementiert.

PatternAnalyzer

Trennt Text flexibel in Ausdrücke über ein Muster mit regulären Ausdrücken. Dieser Analyzer wird mit Apache Lucene implementiert.

PatternCaptureTokenFilter

Verwendet Java regexes, um mehrere Token auszugeben – eine für jede Aufnahmegruppe in einem oder mehreren Mustern. Dieser Tokenfilter wird mit Apache Lucene implementiert.

PatternReplaceCharFilter

Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Es verwendet einen regulären Ausdruck, um Zeichenabfolgen zu identifizieren, die beibehalten werden sollen, und ein Ersetzungsmuster, um zu ersetzende Zeichen zu identifizieren. Wenn Sie beispielsweise den Eingabetext "aa bb aa bb", das Muster "(aa)\s+(bb)" und den Ersatz "$1#$2" erhalten haben, lautet das Ergebnis "aa#bb aa#bb aa#bb". Dieser Zeichenfilter wird mit Apache Lucene implementiert.

PatternReplaceTokenFilter

Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Es verwendet einen regulären Ausdruck, um Zeichenabfolgen zu identifizieren, die beibehalten werden sollen, und ein Ersetzungsmuster, um zu ersetzende Zeichen zu identifizieren. Wenn Sie beispielsweise den Eingabetext "aa bb aa bb", das Muster "(aa)\s+(bb)" und den Ersatz "$1#$2" erhalten haben, lautet das Ergebnis "aa#bb aa#bb aa#bb". Dieser Tokenfilter wird mit Apache Lucene implementiert.

PatternTokenizer

Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Dieser Tokenizer wird mit Apache Lucene implementiert.

PhoneticTokenFilter

Erstellen Sie Token für phonetische Übereinstimmungen. Dieser Tokenfilter wird mit Apache Lucene implementiert.

QueryAnswerResult

Eine Antwort ist eine Textpassage, die aus dem Inhalt der relevantesten Dokumente extrahiert wurde, die der Abfrage entsprechen. Antworten werden aus den wichtigsten Suchergebnissen extrahiert. Antwortkandidaten werden bewertet, und die wichtigsten Antworten werden ausgewählt.

QueryCaptionResult

Beschriftungen sind die repräsentativsten Passagen aus dem Dokument relativ zur Suchabfrage. Sie werden häufig als Dokumentzusammenfassung verwendet. Beschriftungen werden nur für Abfragen vom Typ semanticzurückgegeben.

ResourceCounter

Stellt die Verwendung und das Kontingent einer Ressource dar.

ScalarQuantizationCompression

Enthält Konfigurationsoptionen, die spezifisch für die skalare Quantisierungskomprimierungsmethode sind, die während der Indizierung und Abfrage verwendet wird.

ScalarQuantizationParameters

Enthält die parameter, die für die Skalar quantization spezifisch sind.

ScoringProfile

Definiert Parameter für einen Suchindex, der die Bewertung in Suchabfragen beeinflusst.

SearchClientOptions

Clientoptionen, die zum Konfigurieren von API-Anforderungen für die kognitive Suche verwendet werden.

SearchDocumentsPageResult

Antwort, die Suchergebnisse aus einem Index enthält.

SearchDocumentsResult

Antwort, die Suchergebnisse aus einem Index enthält.

SearchDocumentsResultBase

Antwort, die Suchergebnisse aus einem Index enthält.

SearchIndex

Stellt eine Suchindexdefinition dar, die die Felder und das Suchverhalten eines Indexes beschreibt.

SearchIndexClientOptions

Clientoptionen, die zum Konfigurieren von API-Anforderungen für die kognitive Suche verwendet werden.

SearchIndexStatistics

Statistiken für einen bestimmten Index. Statistiken werden regelmäßig gesammelt und sind nicht garantiert immer up-to-datum.

SearchIndexer

Stellt einen Indexer dar.

SearchIndexerClientOptions

Clientoptionen, die zum Konfigurieren von API-Anforderungen für die kognitive Suche verwendet werden.

SearchIndexerDataContainer

Stellt Informationen zur Entität (z. B. Azure SQL-Tabelle oder CosmosDB-Auflistung) dar, die indiziert wird.

SearchIndexerDataNoneIdentity

Löscht die Identitätseigenschaft einer Datenquelle.

SearchIndexerDataSourceConnection

Stellt eine Datenquellendefinition dar, die zum Konfigurieren eines Indexers verwendet werden kann.

SearchIndexerDataUserAssignedIdentity

Gibt die Identität für eine zu verwendende Datenquelle an.

SearchIndexerError

Stellt einen Indizierungsfehler auf Element- oder Dokumentebene dar.

SearchIndexerIndexProjection

Definition zusätzlicher Projektionen für sekundäre Suchindizes.

SearchIndexerIndexProjectionParameters

Ein Wörterbuch mit indexprojektionsspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen.

SearchIndexerIndexProjectionSelector

Beschreibung, welche Daten im angegebenen Suchindex gespeichert werden sollen.

SearchIndexerKnowledgeStore

Definition zusätzlicher Projektionen für Azure Blob, Tabelle oder Dateien mit erweiterten Daten.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Abstrakte Klasse zum Freigeben von Eigenschaften zwischen betonen Selektoren.

SearchIndexerKnowledgeStoreFileProjectionSelector

Projektionsdefinition für die Daten, die in Azure Files gespeichert werden sollen.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Projektionsdefinition für die Daten, die in Azure Blob gespeichert werden sollen.

SearchIndexerKnowledgeStoreParameters

Ein Wörterbuch mit Wissensspeicher-spezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen.

SearchIndexerKnowledgeStoreProjection

Containerobjekt für verschiedene Projektionsmarkierer.

SearchIndexerKnowledgeStoreProjectionSelector

Abstrakte Klasse zum Freigeben von Eigenschaften zwischen betonen Selektoren.

SearchIndexerKnowledgeStoreTableProjectionSelector

Beschreibung, welche Daten in Azure-Tabellen gespeichert werden sollen.

SearchIndexerLimits
SearchIndexerSkillset

Eine Liste der Fähigkeiten.

SearchIndexerStatus

Stellt den aktuellen Status und den Ausführungsverlauf eines Indexers dar.

SearchIndexerWarning

Stellt eine Warnung auf Elementebene dar.

SearchIndexingBufferedSenderOptions

Optionen für SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Ein vom Kunden verwalteter Verschlüsselungsschlüssel im Azure Key Vault. Schlüssel, die Sie erstellen und verwalten, können zum Verschlüsseln oder Entschlüsseln ruhender Daten in Azure Cognitive Search verwendet werden, z. B. Indizes und Synonymzuordnungen.

SearchServiceStatistics

Antwort von einer Anforderung zum Abrufen von Dienststatistiken. Wenn dies erfolgreich ist, enthält es Leistungsindikatoren und Grenzwerte auf Serviceebene.

SearchSuggester

Definiert, wie die Vorschlags-API auf eine Gruppe von Feldern im Index angewendet werden soll.

SemanticConfiguration

Definiert eine bestimmte Konfiguration, die im Kontext der semantischen Funktionen verwendet werden soll.

SemanticField

Ein Feld, das als Teil der semantischen Konfiguration verwendet wird.

SemanticPrioritizedFields

Beschreibt die Felder "Titel", "Inhalt" und "Schlüsselwörter", die für semantische Rangfolge, Beschriftungen, Hervorhebungen und Antworten verwendet werden sollen.

SemanticSearch

Definiert Parameter für einen Suchindex, der die semantischen Funktionen beeinflusst.

SemanticSearchOptions

Definiert Optionen für semantische Suchabfragen

SentimentSkill

Textanalyse positive negative Stimmungsanalyse, bewertet als Gleitkommawert in einem Bereich von Null bis 1.

SentimentSkillV3

Mithilfe der Text Analytics-API werden unstrukturierter Text ausgewertet und für jeden Datensatz Stimmungsbezeichnungen (z. B. "negativ", "neutral" und "positiv") basierend auf dem höchsten Konfidenzwert bereitgestellt, der vom Dienst auf Satz- und Dokumentebene gefunden wird.

ServiceCounters

Stellt Ressourcenzähler und Kontingente auf Dienstebene dar.

ServiceLimits

Stellt verschiedene Grenzwerte für Dienstebene dar.

ShaperSkill

Eine Fähigkeit zum Umgestalten der Ausgaben. Er erstellt einen komplexen Typ zur Unterstützung zusammengesetzter Felder (auch als mehrteilige Felder bezeichnet).

ShingleTokenFilter

Erstellt Kombinationen von Token als einzelnes Token. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Similarity

Basistyp für Ähnlichkeitsalgorithmen. Ähnlichkeitsalgorithmen werden verwendet, um Bewertungen zu berechnen, die Abfragen an Dokumente binden. Je höher die Bewertung ist, desto relevanter ist das Dokument für diese bestimmte Abfrage. Diese Bewertungen werden verwendet, um die Suchergebnisse zu bewerten.

SimpleField

Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt.

SnowballTokenFilter

Ein Filter, der Wörter mit einem snowball-generierten Stammer abstammt. Dieser Tokenfilter wird mit Apache Lucene implementiert.

SoftDeleteColumnDeletionDetectionPolicy

Definiert eine Datenlöscherkennungsrichtlinie, die eine Strategie für das vorläufige Löschen implementiert. Es bestimmt, ob ein Element basierend auf dem Wert einer festgelegten Spalte "vorläufiges Löschen" gelöscht werden soll.

SplitSkill

Eine Fähigkeit, eine Zeichenfolge in Textblöcke aufzuteilen.

SqlIntegratedChangeTrackingPolicy

Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen mithilfe des Integrierten Änderungsnachverfolgungsfeatures von Azure SQL-Datenbank erfasst.

StemmerOverrideTokenFilter

Bietet die Möglichkeit, andere Wortstammfilter mit benutzerwörterbuchbasierter Wortstammerkennung außer Kraft zu setzen. Alle wörterbuchstammigen Begriffe werden als Schlüsselwörter markiert, sodass sie nicht mit Stemmern in der Kette gestammt werden. Muss vor allen Stemmingfiltern platziert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert.

StemmerTokenFilter

Sprachspezifischer Wortstammfilter. Dieser Tokenfilter wird mit Apache Lucene implementiert.

StopAnalyzer

Dividiert Text in Nichtbuchstaben; Wendet die Tokenfilter in Kleinbuchstaben und Stoppwörtern an. Dieser Analyzer wird mit Apache Lucene implementiert.

StopwordsTokenFilter

Entfernt Stoppwörter aus einem Tokendatenstrom. Dieser Tokenfilter wird mit Apache Lucene implementiert.

SuggestDocumentsResult

Antwort, die Vorschlagsabfrageergebnisse aus einem Index enthält.

SuggestRequest

Parameter zum Filtern, Sortieren, Fuzzyabgleich und andere Vorschläge abfrageverhalten.

SynonymMap

Stellt eine Synonymzuordnungsdefinition dar.

SynonymTokenFilter

Gleicht ein- oder mehrere Wort-Synonyme in einem Tokendatenstrom ab. Dieser Tokenfilter wird mit Apache Lucene implementiert.

TagScoringFunction

Definiert eine Funktion, die Die Bewertungen von Dokumenten mit Zeichenfolgenwerten erhöht, die einer bestimmten Liste von Tags entsprechen.

TagScoringParameters

Stellt Parameterwerte für eine Tagbewertungsfunktion bereit.

TextTranslationSkill

Eine Fähigkeit zum Übersetzen von Text aus einer Sprache in eine andere.

TextWeights

Definiert Gewichtungen für Indexfelder, für die Übereinstimmungen die Bewertung in Suchabfragen erhöhen sollen.

TruncateTokenFilter

Schneidet die Begriffe auf eine bestimmte Länge ab. Dieser Tokenfilter wird mit Apache Lucene implementiert.

UaxUrlEmailTokenizer

Tokenisiert URLs und E-Mails als ein Token. Dieser Tokenizer wird mit Apache Lucene implementiert.

UniqueTokenFilter

Filtert Token mit demselben Text wie das vorherige Token aus. Dieser Tokenfilter wird mit Apache Lucene implementiert.

VectorSearch

Enthält Konfigurationsoptionen im Zusammenhang mit der Vektorsuche.

VectorSearchOptions

Definiert Optionen für Vektorsuchabfragen

VectorSearchProfile

Definiert eine Kombination von Konfigurationen, die mit der Vektorsuche verwendet werden sollen.

VectorizableTextQuery

Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn ein Textwert bereitgestellt wird, der vektorisiert werden muss.

VectorizedQuery

Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn ein unformatierter Vektorwert bereitgestellt wird.

WebApiParameters

Gibt die Eigenschaften für die Verbindung mit einem benutzerdefinierten Vektorizer an.

WebApiSkill

Eine Fähigkeit, die einen Web-API-Endpunkt aufrufen kann, sodass Sie ein Skillset erweitern können, indem Sie ihren benutzerdefinierten Code aufrufen.

WebApiVectorizer

Gibt einen benutzerdefinierten Vektorizer zum Generieren des Vektoreinbettungs einer Abfragezeichenfolge an. Die Integration eines externen Vektorizers erfolgt mithilfe der benutzerdefinierten Web-API-Schnittstelle eines Skillsets.

WordDelimiterTokenFilter

Teilt Wörter in Unterwörter auf und führt optionale Transformationen für Unterwortgruppen aus. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Typaliase

AnalyzeTextOptions

Optionen für die Textanalyse.

AutocompleteMode

Definiert Werte für AutoCompleteMode.

AutocompleteOptions

Optionen zum Abrufen von Abschlusstext für einen teilweisen SearchText.

AzureOpenAIModelName

Definiert Werte für AzureOpenAIModelName.
KnownAzureOpenAIModelName austauschbar mit AzureOpenAIModelName verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

text-embedding-ada-002
texteinbettung-3-große
texteinbettung-3-klein

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Enthält die möglichen Fälle für CharFilter.

CharFilterName

Definiert Werte für CharFilterName.
<xref:KnownCharFilterName> austauschbar mit CharFilterName verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

html_strip: Ein Zeichenfilter, der versucht, HTML-Konstrukte zu entfernen. Siehe https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Definiert Werte für CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Enthält die möglichen Fälle für CognitiveServicesAccount.

ComplexDataType

Definiert Werte für ComplexDataType. Mögliche Werte sind: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

CountDocumentsOptions

Optionen zum Ausführen des Zählungsvorgangs für den Index.

CreateDataSourceConnectionOptions

Optionen zum Erstellen des Datenquellenvorgangs.

CreateIndexOptions

Optionen zum Erstellen eines Indexvorgangs.

CreateIndexerOptions

Optionen zum Erstellen eines Indexervorgangs.

CreateSkillsetOptions

Optionen zum Erstellen von Skillset-Vorgängen.

CreateSynonymMapOptions

Optionen zum Erstellen eines Synonymmap-Vorgangs.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Enthält die möglichen Fälle für DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Enthält die möglichen Fälle für DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Optionen für den Vorgang zum Löschen von Dokumenten.

EdgeNGramTokenFilterSide

Definiert Werte für EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage
ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Enthält Konfigurationsoptionen, die spezifisch für den vollständigen KNN-Algorithmus sind, der während der Abfrage verwendet wird, wodurch die Brute-Force-Suche im gesamten Vektorindex ausgeführt wird.

ExtractDocumentKey
GetDataSourceConnectionOptions

Optionen zum Abrufen des Datenquellenvorgangs.

GetIndexOptions

Optionen zum Abrufen des Indexvorgangs.

GetIndexStatisticsOptions

Optionen zum Abrufen des Indexstatistikvorgangs.

GetIndexerOptions

Optionen zum Abrufen des Indexervorgangs.

GetIndexerStatusOptions

Optionen zum Abrufen des Indexerstatusvorgangs.

GetServiceStatisticsOptions

Optionen zum Abrufen des Dienststatistikvorgangs.

GetSkillSetOptions

Optionen zum Abrufen des Skillset-Vorgangs.

GetSynonymMapsOptions

Optionen zum Abrufen des Synonymmaps-Vorgangs.

HnswAlgorithmConfiguration

Enthält Konfigurationsoptionen, die spezifisch für den hnsw näheren Nachbaralgorithmus sind, der während der Indizierungszeit verwendet wird.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Definiert Werte für IndexActionType.

IndexDocumentsAction

Stellt eine Indexaktion dar, die auf einem Dokument ausgeführt wird.

IndexIterator

Ein Iterator zum Auflisten der Indizes, die im Suchdienst vorhanden sind. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen.

IndexNameIterator

Ein Iterator zum Auflisten der Indizes, die im Suchdienst vorhanden sind. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen.

IndexProjectionMode

Definiert Werte für IndexProjectionMode.
KnownIndexProjectionMode- austauschbar mit IndexProjectionMode verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

skipIndexingParentDocuments: Das Quelldokument wird vom Schreiben in den Zielindex des Indexers übersprungen.
includeIndexingParentDocuments: Das Quelldokument wird in den Zielindex des Indexers geschrieben. Dies ist das Standardmuster.

IndexerExecutionEnvironment
IndexerExecutionStatus

Definiert Werte für IndexerExecutionStatus.

IndexerStatus

Definiert Werte für IndexerStatus.

KeyPhraseExtractionSkillLanguage
LexicalAnalyzer

Enthält die möglichen Fälle für Analyzer.

LexicalAnalyzerName

Definiert Werte für LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> austauschbar mit LexicalAnalyzerName verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

ar.microsoft: Microsoft Analyzer für Arabisch.
ar.lucene: Lucene Analyzer für Arabisch.
hy.lucene: Lucene Analyzer für Armenier.
bn.microsoft: Microsoft Analyzer für Bangla.
eu.lucene: Lucene Analyzer für Baskisch.
bg.microsoft: Microsoft Analyzer für Bulgarisch.
bg.lucene: Lucene Analyzer für Bulgarisch.
ca.microsoft: Microsoft Analyzer für Katalanisch.
ca.lucene: Lucene Analyzer für Katalanisch.
zh-Hans.microsoft: Microsoft Analyzer für Chinesisch (vereinfacht).
zh-Hans.lucene: Lucene Analyzer für Chinesisch (vereinfacht).
zh-Hant.microsoft: Microsoft Analyzer für Chinesisch (traditionell).
zh-Hant.lucene: Lucene Analyzer für Chinesisch (traditionell).
hr.microsoft: Microsoft Analyzer für Kroatisch.
cs.microsoft: Microsoft Analyzer für Tschechisch.
cs.lucene: Lucene analyzer for Czech.
da.microsoft: Microsoft Analyzer für Dänisch.
da.lucene: Lucene Analyzer für Dänisch.
nl.microsoft: Microsoft Analyzer für Niederländisch.
nl.lucene: Lucene Analyzer für Niederländisch.
en.microsoft: Microsoft Analyzer für Englisch.
en.lucene: Lucene Analyzer für Englisch.
et.microsoft: Microsoft Analyzer für Estland.
fi.microsoft: Microsoft Analyzer für Finnisch.
fi.lucene: Lucene Analyzer für Finnisch.
fr.microsoft: Microsoft Analyzer für Französisch.
fr.lucene: Lucene Analyzer für Französisch.
gl.lucene: Lucene Analyzer für Galizien.
de.microsoft: Microsoft Analyzer für Deutsch.
de.lucene: Lucene Analyzer für Deutsch.
el.microsoft: Microsoft Analyzer für Griechisch.
el.lucene: Lucene Analyzer für Griechisch.
gu.microsoft: Microsoft Analyzer für Gujarati.
he.microsoft: Microsoft Analyzer für Hebräisch.
hi.microsoft: Microsoft Analyzer für Hindi.
hi.lucene: Lucene Analyzer für Hindi.
hu.microsoft: Microsoft Analyzer für Ungarisch.
hu.lucene: Lucene Analyzer für Ungarisch.
is.microsoft: Microsoft Analyzer für Island.
id.microsoft: Microsoft Analyzer für Indonesien (Bahasa).
id.lucene: Lucene Analyzer für Indonesien.
ga.lucene: Lucene analyzer for Irish.
it.microsoft: Microsoft Analyzer für Italienisch.
it.lucene: Lucene Analyzer für Italienisch.
ja.microsoft: Microsoft Analyzer für Japanisch.
ja.lucene: Lucene Analyzer für Japanisch.
kn.microsoft: Microsoft Analyzer für Kannada.
ko.microsoft: Microsoft Analyzer für Koreanisch.
ko.lucene: Lucene Analyzer für Koreanisch.
lv.microsoft: Microsoft Analyzer für Lettisch.
lv.lucene: Lucene Analyzer für Lettisch.
lt.microsoft: Microsoft Analyzer für Litauisch.
ml.microsoft: Microsoft Analyzer für Malayalam.
ms.microsoft: Microsoft Analyzer für Malaiisch (Lateinisch).
mr.microsoft: Microsoft Analyzer für Marathi.
nb.microsoft: Microsoft Analyzer für Norwegisch (Bokmål).
no.lucene: Lucene Analyzer für Norwegisch.
fa.lucene: Lucene Analyzer für Persisch.
pl.microsoft: Microsoft Analyzer für Polnisch.
pl.lucene: Lucene Analyzer für Polnisch.
pt-BR.microsoft: Microsoft Analyzer für Portugiesisch (Brasilien).
pt-BR.lucene: Lucene Analyzer für Portugiesisch (Brasilien).
pt-PT.microsoft: Microsoft Analyzer für Portugiesisch (Portugal).
pt-PT.lucene: Lucene Analyzer für Portugiesisch (Portugal).
pa.microsoft: Microsoft Analyzer für Punjabi.
ro.microsoft: Microsoft Analyzer für Rumänisch.
ro.lucene: Lucene Analyzer für Rumänisch.
ru.microsoft: Microsoft Analyzer für Russisch.
ru.lucene: Lucene Analyzer für Russisch.
sr-cyrillic.microsoft: Microsoft Analyzer für Serbisch (Kyrillisch).
sr-latin.microsoft: Microsoft Analyzer für Serbisch (Lateinisch).
sk.microsoft: Microsoft Analyzer für Slowakisch.
sl.microsoft: Microsoft Analyzer für Slowenisch.
es.microsoft: Microsoft Analyzer für Spanisch.
es.lucene: Lucene Analyzer für Spanisch.
sv.microsoft: Microsoft Analyzer für Schwedisch.
sv.lucene: Lucene Analyzer für Schwedisch.
ta.microsoft: Microsoft Analyzer für Tamil.
te.microsoft: Microsoft Analyzer für Telugu.
th.microsoft: Microsoft Analyzer für Thailändisch.
th.lucene: Lucene Analyzer für Thai.
tr.microsoft: Microsoft Analyzer für Türkisch.
tr.lucene: Lucene Analyzer für Türkisch.
uk.microsoft: Microsoft Analyzer für Ukrainisch.
Your.microsoft: Microsoft Analyzer für Urdu.
vi.microsoft: Microsoft Analyzer für Vietnamesisch.
standard.lucene: Standard Lucene Analyzer.
standardasciifolding.lucene: Standard ASCII Folding Lucene Analyzer. Siehe https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
Schlüsselwort: Behandelt den gesamten Inhalt eines Felds als einzelnes Token. Dies ist nützlich für Daten wie Postleitzahlen, IDs und einige Produktnamen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
Muster: Trennt Text flexibel über ein Muster mit regulären Ausdrücken in Ausdrücke. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
einfache: Dividiert Text bei Nichtbuchstaben und wandelt sie in Kleinbuchstaben um. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
beenden: Teilt Text in Nichtbuchstaben; Wendet die Tokenfilter in Kleinbuchstaben und Stoppwörtern an. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
Leerzeichen: Ein Analyzer, der den Leerzeichentokenizer verwendet. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Enthält die möglichen Fälle für Tokenizer.

LexicalTokenizerName

Definiert Werte für LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> austauschbar mit LexicalTokenizerName verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

klassischen: Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente in Europa geeignet ist. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram-: Tokenisiert die Eingabe von einem Rand in n Gramm der angegebenen Größe(n). Siehe https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: Gibt die gesamte Eingabe als einzelnes Token aus. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
Buchstaben: Dividiert Text in Nichtbuchstaben. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
Kleinbuchstaben: Dividiert Text bei Nichtbuchstaben und konvertiert sie in Kleinbuchstaben. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: Dividiert Text mithilfe sprachspezifischer Regeln.
microsoft_language_stemming_tokenizer: Dividiert Text mithilfe von sprachspezifischen Regeln und reduziert Wörter auf ihre Basisformen.
nGram-: Tokenisiert die Eingabe in n-Gramm der angegebenen Größe(n). Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizer für pfadähnliche Hierarchien. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
Muster: Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Standard Lucene Analyzer; Zusammengesetzt aus dem Standardmäßigen Tokenizer, Kleinbuchstabenfilter und Stoppfilter. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Tokenisiert URLs und E-Mails als ein Token. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
Leerzeichen: Dividiert Text beim Leerzeichen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Optionen für einen Listendatenquellenvorgang.

ListIndexersOptions

Optionen für einen Listenindizierungsvorgang.

ListIndexesOptions

Optionen für einen Listenindexvorgang.

ListSkillsetsOptions

Optionen für einen Listen-Skillsets-Vorgang.

ListSynonymMapsOptions

Optionen für einen Listen synonymMaps-Vorgang.

MergeDocumentsOptions

Optionen für den Vorgang "Dokumente zusammenführen".

MergeOrUploadDocumentsOptions

Optionen für den Vorgang zum Zusammenführen oder Hochladen von Dokumenten.

MicrosoftStemmingTokenizerLanguage

Definiert Werte für MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Definiert Werte für MicrosoftTokenizerLanguage.

NarrowedModel

Beschränkt den Modelltyp so, dass nur die ausgewählten Felder enthalten sind.

OcrLineEnding

Definiert Werte für OcrLineEnding.
KnownOcrLineEnding austauschbar mit OcrLineEnding verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

Leerzeichen: Zeilen werden durch ein einzelnes Leerzeichen getrennt.
wagenReturn: Linien werden durch ein Wagenrücklaufzeichen ('\r') getrennt.
lineFeed-: Zeilen werden durch ein einzelnes Zeilenvorschubzeichen ('\n') getrennt.
wagenReturnLineFeed: Linien werden durch einen Wagenrücklauf und einen Zeilenvorschub ('\r\n') getrennt.

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Definiert Werte für PhoneticEncoder.

QueryAnswer

Ein Wert, der angibt, ob Antworten als Teil der Suchantwort zurückgegeben werden sollen. Dieser Parameter ist nur gültig, wenn der Abfragetyp "semantisch" ist. Wenn sie auf extractivefestgelegt ist, gibt die Abfrage Antworten zurück, die aus wichtigen Passagen in den am höchsten bewerteten Dokumenten extrahiert wurden.

QueryCaption

Ein Wert, der angibt, ob Beschriftungen als Teil der Suchantwort zurückgegeben werden sollen. Dieser Parameter ist nur gültig, wenn der Abfragetyp "semantisch" ist. Wenn festgelegt, gibt die Abfrage Beschriftungen zurück, die aus Schlüsselabschnitten in den höchsten bewerteten Dokumenten extrahiert wurden. Wenn Beschriftungen "extraktiv" sind, ist die Hervorhebung standardmäßig aktiviert. Der Standardwert ist "none".

QueryType

Definiert Werte für QueryType.

RegexFlags
ResetIndexerOptions

Optionen zum Zurücksetzen des Indexervorgangs.

RunIndexerOptions

Optionen zum Ausführen des Indexervorgangs.

ScoringFunction

Enthält die möglichen Fälle für ScoringFunction.

ScoringFunctionAggregation

Definiert Werte für ScoringFunctionAggregation.

ScoringFunctionInterpolation

Definiert Werte für ScoringFunctionInterpolation.

ScoringStatistics

Definiert Werte für ScoringStatistics.

SearchField

Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt.

SearchFieldArray

Wenn TModel ein nicht typisiertes Objekt ist, ist ein nicht typisiertes Zeichenfolgenarray andernfalls die schrägstrichtrennten Felder von TModel.

SearchFieldDataType

Definiert Werte für SearchFieldDataType.

Bekannte Werte, die vom Dienst unterstützt werden:

Edm.String: Gibt an, dass ein Feld eine Zeichenfolge enthält.

Edm.Int32-: Gibt an, dass ein Feld eine 32-Bit-Ganzzahl mit Vorzeichen enthält.

Edm.Int64-: Gibt an, dass ein Feld eine 64-Bit-Ganzzahl enthält.

Edm.Double: Gibt an, dass ein Feld eine IEEE-Gleitkommazahl mit doppelter Genauigkeit enthält.

Edm.Boolean: Gibt an, dass ein Feld einen booleschen Wert (true oder false) enthält.

Edm.DateTimeOffset: Gibt an, dass ein Feld einen Datums-/Uhrzeitwert enthält, einschließlich Zeitzoneninformationen.

Edm.GeographyPoint: Gibt an, dass ein Feld einen geografischen Standort in Bezug auf Längengrad und Breitengrad enthält.

Edm.ComplexType: Gibt an, dass ein Feld ein oder mehrere komplexe Objekte enthält, die wiederum Unterfelder anderer Typen aufweisen.

Edm.Single: Gibt an, dass ein Feld eine Gleitkommazahl mit einfacher Genauigkeit enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Single).

Edm.Half: Gibt an, dass ein Feld eine Gleitkommazahl mit halber Genauigkeit enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Half).

Edm.Int16-: Gibt an, dass ein Feld eine 16-Bit-ganzzahlige Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Int16).

Edm.SByte-: Gibt an, dass ein Feld eine 8-Bit-ganzzahl mit Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.SByte).

Edm.Byte-: Gibt an, dass ein Feld eine 8-Bit-ganzzahl ohne Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Byte).

SearchIndexerDataIdentity

Enthält die möglichen Fälle für SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Enthält die möglichen Fälle für Skill.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Optionen für SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Optionen für SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Optionen für SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Optionen für SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Optionen für SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Ein Iterator für Suchergebnisse einer Paticular-Abfrage. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen.

SearchMode

Definiert Werte für SearchMode.

SearchOptions

Optionen für das Commit einer vollständigen Suchanforderung.

SearchPick

Wählen Sie tief Felder von T unter Verwendung gültiger OData-$select Pfade der kognitiven Suche aus.

SearchRequestOptions

Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten.

SearchRequestQueryTypeOptions
SearchResult

Enthält ein Dokument, das von einer Suchabfrage gefunden wurde, sowie zugeordnete Metadaten.

SelectArray

Wenn TFields niemals ist, wird ein nicht typisiertes Zeichenfolgenarray andernfalls ein schmaler Fields[] Typ verwendet, der an anderer Stelle im verbrauchenden Typ verwendet werden soll.

SelectFields

Erzeugt eine Vereinigung gültiger OData-$select Pfade für T mithilfe einer Nachreihenfolge des Feldbaums, der bei T verwurzelt ist.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType
SentimentSkillLanguage
SimilarityAlgorithm

Enthält die möglichen Fälle für Ähnlichkeit.

SnowballTokenFilterLanguage

Definiert Werte für SnowballTokenFilterLanguage.

SplitSkillLanguage
StemmerTokenFilterLanguage

Definiert Werte für StemmerTokenFilterLanguage.

StopwordsList

Definiert Werte für StopwordsList.

SuggestNarrowedModel
SuggestOptions

Optionen zum Abrufen von Vorschlägen basierend auf dem searchText.

SuggestResult

Ein Ergebnis, das ein Dokument enthält, das von einer Vorschlagsabfrage gefunden wurde, sowie zugeordnete Metadaten.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Definiert Werte für TokenCharacterKind.

TokenFilter

Enthält die möglichen Fälle für TokenFilter.

TokenFilterName

Definiert Werte für TokenFilterName.
<xref:KnownTokenFilterName> austauschbar mit TokenFilterName verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

arabic_normalization: Ein Tokenfilter, der den arabischen Normalisierer anwendet, um die Orthografie zu normalisieren. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
Apostroph: Entfernt alle Zeichen nach einem Apostroph (einschließlich des Apostrophs selbst). Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: Wandelt alphabetische, numerische und symbolische Unicode-Zeichen um, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") in ihre ASCII-Entsprechungen befinden, wenn solche Entsprechungen vorhanden sind. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: Bildet Bigrams von CJK-Ausdrücken, die aus dem Standardtokenizer generiert werden. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: Normalisiert Unterschiede bei der CJK-Breite. Faltet Fullwidth ASCII-Varianten in die entsprechenden grundlegenden lateinischen und halbbreiten Katakana-Varianten in die entsprechende Kana. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
klassischen: Entfernt englische Possessive und Punkte von Akronyme. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: Erstellen Sie Bigrams für häufig vorkommende Ausdrücke während der Indizierung. Einzelne Begriffe sind auch weiterhin indiziert, wobei Bigrams überlagert sind. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: Generiert n Gramm der angegebenen Größe(n) beginnend von vorne oder hinten eines Eingabetokens. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision: Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: Normalisiert deutsche Charaktere nach den Heuristiken des deutschen Schneeballalgorithmus. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: Normalisiert Text in Hindi, um einige Unterschiede bei rechtschreibvarianten zu entfernen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: Normalisiert die Unicode-Darstellung von Text in indischen Sprachen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: Gibt jedes eingehende Token zweimal aus, einmal als Schlüsselwort und einmal als Nicht-Schlüsselwort. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem-: Ein Hochleistungs-Kstemfilter für Englisch. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
Länge: Entfernt Wörter, die zu lang oder zu kurz sind. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
Grenzwert: Beschränkt die Anzahl der Token während der Indizierung. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
Kleinbuchstaben: Normalisiert Tokentext in Kleinbuchstaben. Siehe https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: Generiert n Gramm der angegebenen Größe(n). Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: Wendet normalisierung für Persisch an. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
phonetischen: Erstellen von Token für phonetische Übereinstimmungen. Siehe https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: Verwendet den Porterstammalgorithmus, um den Tokendatenstrom zu transformieren. Siehe http://tartarus.org/~martin/PorterStemmer
umgekehrte: Kehrt die Tokenzeichenfolge um. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: Normalisiert die Verwendung der austauschbaren skandinavischen Charaktere. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Faltet skandinavische Charaktere åÅäæÄÆ->a und öÖøØ->o. Es diskriminiert auch gegen die Verwendung von doppelten Vokalen aa, ae, ao, oe und oo, wobei nur der erste weggelassen wird. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
Shingle-: Erstellt Kombinationen von Token als einzelnes Token. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
Schneeball-: Ein Filter, der Wörter mit einem Snowball-generierten Stemmer abstammt. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: Normalisiert die Unicode-Darstellung von Sorani-Text. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
Stemmer-: Sprachspezifischer Wortstammfilter. Siehe https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
Stopwords: Entfernt Wörter aus einem Tokendatenstrom. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
kürzen: Kürzet führende und nachfolgende Leerzeichen von Token. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
abschneiden: Schneidet die Begriffe auf eine bestimmte Länge ab. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
eindeutige: Filtert Token mit demselben Text wie das vorherige Token aus. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
Großbuchstaben: Normalisiert Tokentext in Großbuchstaben. Siehe https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: Unterteilt Wörter in Unterwörter und führt optionale Transformationen für Unterwortgruppen durch.

UnionToIntersection
UploadDocumentsOptions

Optionen für den Vorgang zum Hochladen von Dokumenten.

VectorEncodingFormat

Definiert Werte für VectorEncodingFormat.
KnownVectorEncodingFormat- austauschbar mit VectorEncodingFormat verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

packedBit-: Codierungsformat, das Bits darstellt, die in einen breiteren Datentyp verpackt sind.

VectorFilterMode
VectorQuery

Die Abfrageparameter für Vektor- und Hybridsuchabfragen.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Enthält konfigurationsspezifische Optionen für den Algorithmus, der während der Indizierung und/oder Abfrage verwendet wird.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Enthält konfigurationsspezifische Optionen für die Komprimierungsmethode, die während der Indizierung oder Abfrage verwendet wird.

VectorSearchCompressionKind

Definiert Werte für VectorSearchCompressionKind.
KnownVectorSearchCompressionKind austauschbar mit VectorSearchCompressionKind verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

skalarQuantization: Scalar Quantization, eine Art von Komprimierungsmethode. In der skalaren Quantisierung werden die ursprünglichen Vektorwerte in einen schmaleren Typ komprimiert, indem jede Komponente eines Vektors mithilfe eines reduzierten Satzes quantisierter Werte diskretiert und dargestellt wird, wodurch die Gesamtdatengröße reduziert wird.
binaryQuantization: Binary Quantization, eine Art von Komprimierungsmethode. In der binären Quantisierung werden die ursprünglichen Vektorwerte durch Diskretizing und Darstellung der einzelnen Komponenten eines Vektors mithilfe von Binärwerten auf den schmaleren Binärtyp komprimiert, wodurch die Gesamtdatengröße reduziert wird.

VectorSearchCompressionTarget

Definiert Werte für VectorSearchCompressionTarget.
KnownVectorSearchCompressionTarget austauschbar mit VectorSearchCompressionTarget verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

int8

VectorSearchVectorizer

Enthält Konfigurationsoptionen zum Vektorisieren von Textvektorabfragen.

VectorSearchVectorizerKind

Definiert Werte für VectorSearchVectorizerKind.
KnownVectorSearchVectorizerKind austauschbar mit VectorSearchVectorizerKind verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

azureOpenAI-: Generieren Sie Einbettungen mithilfe einer Azure OpenAI-Ressource zur Abfragezeit.
customWebApi-: Generieren Von Einbettungen mithilfe eines benutzerdefinierten Webendpunkts zur Abfragezeit.

VisualFeature

Enumerationen

KnownAnalyzerNames

Definiert Werte für AnalyzerName. Siehe https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

Bekannte Werte von AzureOpenAIModelName, die der Dienst akzeptiert.

KnownBlobIndexerDataToExtract

Bekannte Werte von BlobIndexerDataToExtract, die der Dienst akzeptiert.

KnownBlobIndexerImageAction

Bekannte Werte von BlobIndexerImageAction, die der Dienst akzeptiert.

KnownBlobIndexerPDFTextRotationAlgorithm

Bekannte Werte von BlobIndexerPDFTextRotationAlgorithm, die der Dienst akzeptiert.

KnownBlobIndexerParsingMode

Bekannte Werte von BlobIndexerParsingMode, die der Dienst akzeptiert.

KnownCharFilterNames

Bekannte Werte von CharFilterName, die der Dienst akzeptiert.

KnownCustomEntityLookupSkillLanguage

Bekannte Werte von CustomEntityLookupSkillLanguage, die der Dienst akzeptiert.

KnownEntityCategory

Bekannte Werte von EntityCategory, die der Dienst akzeptiert.

KnownEntityRecognitionSkillLanguage

Bekannte Werte von EntityRecognitionSkillLanguage, die der Dienst akzeptiert.

KnownImageAnalysisSkillLanguage

Bekannte Werte von ImageAnalysisSkillLanguage, die der Dienst akzeptiert.

KnownImageDetail

Bekannte Werte von ImageDetail-, die der Dienst akzeptiert.

KnownIndexProjectionMode

Bekannte Werte von IndexProjectionMode, die der Dienst akzeptiert.

KnownIndexerExecutionEnvironment

Bekannte Werte von IndexerExecutionEnvironment, die der Dienst akzeptiert.

KnownKeyPhraseExtractionSkillLanguage

Bekannte Werte von KeyPhraseExtractionSkillLanguage, die der Dienst akzeptiert.

KnownOcrLineEnding

Bekannte Werte von OcrLineEnding, die der Dienst akzeptiert.

KnownOcrSkillLanguage

Bekannte Werte von OcrSkillLanguage, die der Dienst akzeptiert.

KnownPIIDetectionSkillMaskingMode

Bekannte Werte von PIIDetectionSkillMaskingMode, die der Dienst akzeptiert.

KnownRegexFlags

Bekannte Werte von RegexFlags, die der Dienst akzeptiert.

KnownSearchAudience

Bekannte Werte für die Suchgruppe

KnownSearchFieldDataType

Bekannte Werte von SearchFieldDataType, die der Dienst akzeptiert.

KnownSearchIndexerDataSourceType

Bekannte Werte von SearchIndexerDataSourceType, die der Dienst akzeptiert.

KnownSemanticErrorMode

Bekannte Werte von SemanticErrorMode, die der Dienst akzeptiert.

KnownSemanticErrorReason

Bekannte Werte von SemanticErrorReason, die der Dienst akzeptiert.

KnownSemanticSearchResultsType

Bekannte Werte von SemanticSearchResultsType, die der Dienst akzeptiert.

KnownSentimentSkillLanguage

Bekannte Werte von SentimentSkillLanguage, die der Dienst akzeptiert.

KnownSplitSkillLanguage

Bekannte Werte von SplitSkillLanguage, die der Dienst akzeptiert.

KnownTextSplitMode

Bekannte Werte von TextSplitMode, die der Dienst akzeptiert.

KnownTextTranslationSkillLanguage

Bekannte Werte von TextTranslationSkillLanguage, die der Dienst akzeptiert.

KnownTokenFilterNames

Bekannte Werte von TokenFilterName, die der Dienst akzeptiert.

KnownTokenizerNames

Bekannte Werte von LexicalTokenizerName, die der Dienst akzeptiert.

KnownVectorEncodingFormat

Bekannte Werte von VectorEncodingFormat, die der Dienst akzeptiert.

KnownVectorFilterMode

Bekannte Werte von VectorFilterMode, die der Dienst akzeptiert.

KnownVectorQueryKind

Bekannte Werte von VectorQueryKind, die der Dienst akzeptiert.

KnownVectorSearchAlgorithmKind

Bekannte Werte von VectorSearchAlgorithmKind, die der Dienst akzeptiert.

KnownVectorSearchAlgorithmMetric

Bekannte Werte von VectorSearchAlgorithmMetric, die der Dienst akzeptiert.

KnownVectorSearchCompressionKind

Bekannte Werte von VectorSearchCompressionKind, die der Dienst akzeptiert.

KnownVectorSearchCompressionTarget

Bekannte Werte von VectorSearchCompressionTarget, die der Dienst akzeptiert.

KnownVectorSearchVectorizerKind

Bekannte Werte von VectorSearchVectorizerKind, die der Dienst akzeptiert.

KnownVisualFeature

Bekannte Werte von VisualFeature, die der Dienst akzeptiert.

Functions

createSynonymMapFromFile(string, string)

Hilfsmethode zum Erstellen eines SynonymMap-Objekts. Dies ist eine einzige NodeJS-Methode.

odata(TemplateStringsArray, unknown[])

Escapes an odata filter expression to avoid errors with quoting string literals. Beispielverwendung:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Weitere Informationen zur unterstützten Syntax finden Sie unter: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Details zur Funktion

createSynonymMapFromFile(string, string)

Hilfsmethode zum Erstellen eines SynonymMap-Objekts. Dies ist eine einzige NodeJS-Methode.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parameter

name

string

Name der SynonymMap.

filePath

string

Pfad der Datei, die die Synonyme enthält (getrennt durch neue Zeilen)

Gibt zurück

Promise<SynonymMap>

SynonymMap-Objekt

odata(TemplateStringsArray, unknown[])

Escapes an odata filter expression to avoid errors with quoting string literals. Beispielverwendung:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Weitere Informationen zur unterstützten Syntax finden Sie unter: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parameter

strings

TemplateStringsArray

Array von Zeichenfolgen für den Ausdruck

values

unknown[]

Array von Werten für den Ausdruck

Gibt zurück

string