@azure/search-documents package
Klassen
AzureKeyCredential |
Statische Schlüsselbasierte Anmeldeinformationen, die das Aktualisieren des zugrunde liegenden Schlüsselwerts unterstützen. |
GeographyPoint |
Stellt einen geografischen Punkt in globalen Koordinaten dar. |
IndexDocumentsBatch |
Klasse, die zum Ausführen von Batchvorgängen mit mehreren Dokumenten im Index verwendet wird. |
SearchClient |
Klasse, die zum Ausführen von Vorgängen für einen Suchindex verwendet wird, einschließlich Abfragen von Dokumenten im Index sowie Hinzufügen, Aktualisieren und Entfernen von Dokumenten. |
SearchIndexClient |
Klasse zum Ausführen von Vorgängen zum Verwalten (Erstellen, Aktualisieren, Auflisten/Löschen) & Synonymmaps. |
SearchIndexerClient |
Klasse zum Ausführen von Vorgängen zum Verwalten (Erstellen, Aktualisieren, Listen/Löschen) von Indexern, Datenquellen & Skillsets. |
SearchIndexingBufferedSender |
Klasse, die zum Ausführen von gepufferten Vorgängen für einen Suchindex verwendet wird, einschließlich Hinzufügen, Aktualisieren und Entfernen dieser Vorgänge. |
Schnittstellen
AnalyzeRequest |
Gibt einige Text- und Analysekomponenten an, die zum Aufteilen dieses Texts in Token verwendet werden. |
AnalyzeResult |
Das Ergebnis des Tests eines Analyzers auf Text. |
AnalyzedTokenInfo |
Informationen zu einem token, das von einem Analyzer zurückgegeben wird. |
AsciiFoldingTokenFilter |
Konvertiert alphabetische, numerische und symbolische Unicode-Zeichen, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") befinden, in ihre ASCII-Entsprechungen, wenn solche Entsprechungen vorhanden sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
AutocompleteItem |
Das Ergebnis von AutoVervollständigen-Anforderungen. |
AutocompleteRequest |
Parameter für fuzzy matching, and other autocomplete query behaviors. |
AutocompleteResult |
Das Ergebnis der AutoVervollständigen-Abfrage. |
AzureActiveDirectoryApplicationCredentials |
Anmeldeinformationen einer registrierten Anwendung, die für Ihren Suchdienst erstellt wurde und für authentifizierten Zugriff auf die im Azure Key Vault gespeicherten Verschlüsselungsschlüssel verwendet wird. |
AzureOpenAIEmbeddingSkill |
Ermöglicht es Ihnen, einen Vektoreinbettung für eine bestimmte Texteingabe mithilfe der Azure OpenAI-Ressource zu generieren. |
AzureOpenAIParameters |
Enthält die Parameter, die für die Verwendung eines Azure Open AI-Diensts für die Vektorisierung zur Abfragezeit spezifisch sind. |
AzureOpenAIVectorizer |
Enthält die Parameter, die für die Verwendung eines Azure Open AI-Diensts für die Vektorisierung zur Abfragezeit spezifisch sind. |
BM25Similarity |
Bewertungsfunktion basierend auf dem Okapi BM25 Ähnlichkeitsalgorithmus. BM25 ist ein TF-IDF-like-Algorithmus, der die Längennormalisierung (gesteuert durch den Parameter "b") sowie die Begriffsfrequenzsättigung (gesteuert durch den Parameter "k1") enthält. |
BaseCharFilter |
Basistyp für Zeichenfilter. |
BaseCognitiveServicesAccount |
Basistyp für die Beschreibung einer Azure AI-Dienstressource, die einem Skillset zugeordnet ist. |
BaseDataChangeDetectionPolicy |
Basistyp für Datenänderungserkennungsrichtlinien. |
BaseDataDeletionDetectionPolicy |
Basistyp für Erkennungsrichtlinien für die Datenlöschung. |
BaseLexicalAnalyzer |
Basistyp für Analysegeräte. |
BaseLexicalTokenizer |
Basistyp für Tokenizer. |
BaseScoringFunction |
Basistyp für Funktionen, die Dokumentergebnisse während der Rangfolge ändern können. |
BaseSearchIndexerDataIdentity |
Abstrakter Basistyp für Datenidentitäten. |
BaseSearchIndexerSkill |
Basistyp für Fähigkeiten. |
BaseSearchRequestOptions |
Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten. |
BaseTokenFilter |
Basistyp für Tokenfilter. |
BaseVectorQuery |
Die Abfrageparameter für Vektor- und Hybridsuchabfragen. |
BaseVectorSearchAlgorithmConfiguration |
Enthält konfigurationsspezifische Optionen für den Algorithmus, der während der Indizierung und/oder Abfrage verwendet wird. |
BaseVectorSearchCompression |
Enthält konfigurationsspezifische Optionen für die Komprimierungsmethode, die während der Indizierung oder Abfrage verwendet wird. |
BaseVectorSearchVectorizer |
Enthält spezifische Details für eine Vektorisierungsmethode, die während der Abfragezeit verwendet werden soll. |
BinaryQuantizationCompression |
Enthält konfigurationsspezifische Konfigurationsoptionen für die Komprimierungsmethode der binären Quantisierung, die während der Indizierung und Abfrage verwendet wird. |
CjkBigramTokenFilter |
Bildet Bigrams von CJK-Ausdrücken, die aus dem Standardtokenizer generiert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
ClassicSimilarity |
Legacy-Ähnlichkeitsalgorithmus, der die Lucene TFIDFSimilarity-Implementierung von TF-IDF verwendet. Diese Variation von TF-IDF führt die Normalisierung statischer Dokumente sowie die Koordinierung von Faktoren ein, die Dokumente benachteiligen, die nur teilweise mit den durchsuchten Abfragen übereinstimmen. |
ClassicTokenizer |
Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente mit europäischer Sprache geeignet ist. Dieser Tokenizer wird mit Apache Lucene implementiert. |
CognitiveServicesAccountKey |
Der Multi-Region-Kontoschlüssel einer Azure AI-Dienstressource, die einem Skillset zugeordnet ist. |
CommonGramTokenFilter |
Erstellen Sie Bigrams für häufig vorkommende Ausdrücke während der Indizierung. Einzelne Begriffe sind auch weiterhin indiziert, wobei Bigrams überlagert sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
ComplexField |
Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. |
ConditionalSkill |
Eine Fähigkeit, die Szenarien ermöglicht, die einen booleschen Vorgang erfordern, um die Daten zu bestimmen, die einer Ausgabe zugewiesen werden sollen. |
CorsOptions |
Definiert Optionen zum Steuern der cross-Origin Resource Sharing (CORS) für einen Index. |
CreateOrUpdateIndexOptions |
Optionen zum Erstellen/Aktualisieren des Indexvorgangs. |
CreateOrUpdateSkillsetOptions |
Optionen zum Erstellen/Aktualisieren des Skillset-Vorgangs. |
CreateOrUpdateSynonymMapOptions |
Optionen zum Erstellen/Aktualisieren des Synonymmap-Vorgangs. |
CreateorUpdateDataSourceConnectionOptions |
Optionen zum Erstellen/Aktualisieren des Datenquellenvorgangs. |
CreateorUpdateIndexerOptions |
Optionen zum Erstellen/Aktualisieren des Indexervorgangs. |
CustomAnalyzer |
Ermöglicht es Ihnen, den Prozess der Konvertierung von Text in in indizierbare/durchsuchbare Token zu übernehmen. Es ist eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für das Aufteilen von Text in Token verantwortlich, und die Filter zum Ändern von Token, die vom Tokenizer ausgegeben werden. |
CustomEntity |
Ein Objekt, das Informationen zu den gefundenen Übereinstimmungen und verwandten Metadaten enthält. |
CustomEntityAlias |
Ein komplexes Objekt, das verwendet werden kann, um alternative Schreibweisen oder Synonyme für den Namen der Stammentität anzugeben. |
CustomEntityLookupSkill |
Eine Fähigkeit sucht nach Text aus einer benutzerdefinierten, benutzerdefinierten Liste von Wörtern und Ausdrücken. |
DefaultCognitiveServicesAccount |
Ein leeres Objekt, das die standardmäßige Azure AI-Dienstressource für ein Skillset darstellt. |
DeleteDataSourceConnectionOptions |
Optionen zum Löschen des Datenquellenvorgangs. |
DeleteIndexOptions |
Optionen für den Löschindexvorgang. |
DeleteIndexerOptions |
Optionen zum Löschen des Indexervorgangs. |
DeleteSkillsetOptions |
Optionen zum Löschen von Skillset-Operaion. |
DeleteSynonymMapOptions |
Optionen zum Löschen des Synonymmap-Vorgangs. |
DictionaryDecompounderTokenFilter |
Dekompiliert zusammengesetzte Wörter in vielen germanischen Sprachen. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
DistanceScoringFunction |
Definiert eine Funktion, die Bewertungen basierend auf der Entfernung von einem geografischen Standort erhöht. |
DistanceScoringParameters |
Stellt Parameterwerte für eine Entfernungsbewertungsfunktion bereit. |
DocumentExtractionSkill |
Eine Fähigkeit, die Inhalte aus einer Datei in der Anreicherungspipeline extrahiert. |
EdgeNGramTokenFilter |
Generiert n Gramm der angegebenen Größe(n) beginnend von vorne oder hinten eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
EdgeNGramTokenizer |
Tokenisiert die Eingabe von einem Rand in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mit Apache Lucene implementiert. |
ElisionTokenFilter |
Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
EntityLinkingSkill |
Mithilfe der Text Analytics-API werden verknüpfte Entitäten aus Text extrahiert. |
EntityRecognitionSkill |
Erkennung der Textanalyseentität. |
EntityRecognitionSkillV3 |
Mithilfe der Textanalyse-API werden Entitäten unterschiedlicher Typen aus Text extrahiert. |
ExhaustiveKnnParameters |
Enthält die für den vollständigen KNN-Algorithmus spezifischen Parameter. |
ExtractiveQueryAnswer |
Extrahiert Antwortkandidaten aus dem Inhalt der zurückgegebenen Dokumente als Antwort auf eine Abfrage, die als Frage in natürlicher Sprache ausgedrückt wird. |
ExtractiveQueryCaption |
Extrahiert Beschriftungen aus den übereinstimmenden Dokumenten, die Passagen enthalten, die für die Suchabfrage relevant sind. |
FacetResult |
Ein einzelner Bucket eines Facetabfrageergebnisses. Meldet die Anzahl der Dokumente mit einem Feldwert, der in einen bestimmten Bereich fällt oder einen bestimmten Wert oder ein bestimmtes Intervall aufweist. |
FieldMapping |
Definiert eine Zuordnung zwischen einem Feld in einer Datenquelle und einem Zielfeld in einem Index. |
FieldMappingFunction |
Stellt eine Funktion dar, die einen Wert aus einer Datenquelle vor der Indizierung transformiert. |
FreshnessScoringFunction |
Definiert eine Funktion, die Bewertungen basierend auf dem Wert eines Datum-Uhrzeit-Felds erhöht. |
FreshnessScoringParameters |
Stellt Parameterwerte für eine Aktualitätsbewertungsfunktion bereit. |
GetDocumentOptions |
Optionen zum Abrufen eines einzelnen Dokuments. |
HighWaterMarkChangeDetectionPolicy |
Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen basierend auf dem Wert einer Wasserzeichenspalte erfasst. |
HnswParameters |
Enthält die für den Hnsw-Algorithmus spezifischen Parameter. |
ImageAnalysisSkill |
Eine Fähigkeit, die Bilddateien analysiert. Es extrahiert eine vielzahl von visuellen Features basierend auf dem Bildinhalt. |
IndexDocumentsClient |
Index Documents Client |
IndexDocumentsOptions |
Optionen für den Indexbatchvorgang ändern. |
IndexDocumentsResult |
Antwort, die den Status der Vorgänge für alle Dokumente in der Indizierungsanforderung enthält. |
IndexerExecutionResult |
Stellt das Ergebnis einer einzelnen Indexerausführung dar. |
IndexingParameters |
Stellt Parameter für die Indizierungsausführung dar. |
IndexingParametersConfiguration |
Ein Wörterbuch mit indexerspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen. |
IndexingResult |
Status eines Indizierungsvorgangs für ein einzelnes Dokument. |
IndexingSchedule |
Stellt einen Zeitplan für die Indizierungsausführung dar. |
InputFieldMappingEntry |
Eingabefeldzuordnung für eine Fähigkeit. |
KeepTokenFilter |
Ein Tokenfilter, der Token nur mit Text in einer angegebenen Liste von Wörtern speichert. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
KeyPhraseExtractionSkill |
Eine Fähigkeit, die Textanalyse für die Extraktion von Schlüsselausdrücken verwendet. |
KeywordMarkerTokenFilter |
Markiert Ausdrücke als Schlüsselwörter. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
KeywordTokenizer |
Gibt die gesamte Eingabe als einzelnes Token aus. Dieser Tokenizer wird mit Apache Lucene implementiert. |
LanguageDetectionSkill |
Eine Fähigkeit, die sprache des Eingabetexts zu erkennen und meldet einen einzigen Sprachcode für jedes Dokument, das auf der Anforderung übermittelt wurde. Der Sprachcode wird mit einer Bewertung gekoppelt, die die Konfidenz der Analyse angibt. |
LengthTokenFilter |
Entfernt Wörter, die zu lang oder zu kurz sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
LimitTokenFilter |
Beschränkt die Anzahl der Token während der Indizierung. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
ListSearchResultsPageSettings |
Argumente zum Abrufen der nächsten Seite der Suchergebnisse. |
LuceneStandardAnalyzer |
Standard Apache Lucene Analyzer; Zusammengesetzt aus dem Standardmäßigen Tokenizer, Kleinbuchstabenfilter und Stoppfilter. |
LuceneStandardTokenizer |
Umbricht Text nach den Unicode-Textsegmentierungsregeln. Dieser Tokenizer wird mit Apache Lucene implementiert. |
MagnitudeScoringFunction |
Definiert eine Funktion, die Bewertungen basierend auf der Größe eines numerischen Felds erhöht. |
MagnitudeScoringParameters |
Stellt Parameterwerte für eine Bewertungsfunktion der Größe bereit. |
MappingCharFilter |
Ein Zeichenfilter, der Zuordnungen anwendet, die mit der Zuordnungsoption definiert sind. Der Abgleich ist gierig (längster Musterabgleich bei einem bestimmten Punkt gewinnt). Ersetzung darf die leere Zeichenfolge sein. Dieser Zeichenfilter wird mit Apache Lucene implementiert. |
MergeSkill |
Eine Fähigkeit zum Zusammenführen von zwei oder mehr Zeichenfolgen in einer einzigen einheitlichen Zeichenfolge mit einem optionalen benutzerdefinierten Trennzeichen, das jeden Komponententeil trennt. |
MicrosoftLanguageStemmingTokenizer |
Dividiert Text mithilfe von sprachspezifischen Regeln und reduziert Wörter auf ihre Basisformulare. |
MicrosoftLanguageTokenizer |
Dividiert Text mithilfe sprachspezifischer Regeln. |
NGramTokenFilter |
Generiert n Gramm der angegebenen Größe(n). Dieser Tokenfilter wird mit Apache Lucene implementiert. |
NGramTokenizer |
Tokenisiert die Eingabe in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mit Apache Lucene implementiert. |
OcrSkill |
Eine Fähigkeit, die Text aus Bilddateien extrahiert. |
OutputFieldMappingEntry |
Ausgabefeldzuordnung für eine Fähigkeit. |
PIIDetectionSkill |
Mithilfe der Text Analytics-API werden persönliche Informationen aus einem Eingabetext extrahiert und sie maskieren können. |
PathHierarchyTokenizer |
Tokenizer für pfadähnliche Hierarchien. Dieser Tokenizer wird mit Apache Lucene implementiert. |
PatternAnalyzer |
Trennt Text flexibel in Ausdrücke über ein Muster mit regulären Ausdrücken. Dieser Analyzer wird mit Apache Lucene implementiert. |
PatternCaptureTokenFilter |
Verwendet Java regexes, um mehrere Token auszugeben – eine für jede Aufnahmegruppe in einem oder mehreren Mustern. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
PatternReplaceCharFilter |
Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Es verwendet einen regulären Ausdruck, um Zeichenabfolgen zu identifizieren, die beibehalten werden sollen, und ein Ersetzungsmuster, um zu ersetzende Zeichen zu identifizieren. Wenn Sie beispielsweise den Eingabetext "aa bb aa bb", das Muster "(aa)\s+(bb)" und den Ersatz "$1#$2" erhalten haben, lautet das Ergebnis "aa#bb aa#bb aa#bb". Dieser Zeichenfilter wird mit Apache Lucene implementiert. |
PatternReplaceTokenFilter |
Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Es verwendet einen regulären Ausdruck, um Zeichenabfolgen zu identifizieren, die beibehalten werden sollen, und ein Ersetzungsmuster, um zu ersetzende Zeichen zu identifizieren. Wenn Sie beispielsweise den Eingabetext "aa bb aa bb", das Muster "(aa)\s+(bb)" und den Ersatz "$1#$2" erhalten haben, lautet das Ergebnis "aa#bb aa#bb aa#bb". Dieser Tokenfilter wird mit Apache Lucene implementiert. |
PatternTokenizer |
Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Dieser Tokenizer wird mit Apache Lucene implementiert. |
PhoneticTokenFilter |
Erstellen Sie Token für phonetische Übereinstimmungen. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
QueryAnswerResult |
Eine Antwort ist eine Textpassage, die aus dem Inhalt der relevantesten Dokumente extrahiert wurde, die der Abfrage entsprechen. Antworten werden aus den wichtigsten Suchergebnissen extrahiert. Antwortkandidaten werden bewertet, und die wichtigsten Antworten werden ausgewählt. |
QueryCaptionResult |
Beschriftungen sind die repräsentativsten Passagen aus dem Dokument relativ zur Suchabfrage. Sie werden häufig als Dokumentzusammenfassung verwendet. Beschriftungen werden nur für Abfragen vom Typ |
ResourceCounter |
Stellt die Verwendung und das Kontingent einer Ressource dar. |
ScalarQuantizationCompression |
Enthält Konfigurationsoptionen, die spezifisch für die skalare Quantisierungskomprimierungsmethode sind, die während der Indizierung und Abfrage verwendet wird. |
ScalarQuantizationParameters |
Enthält die parameter, die für die Skalar quantization spezifisch sind. |
ScoringProfile |
Definiert Parameter für einen Suchindex, der die Bewertung in Suchabfragen beeinflusst. |
SearchClientOptions |
Clientoptionen, die zum Konfigurieren von API-Anforderungen für die kognitive Suche verwendet werden. |
SearchDocumentsPageResult |
Antwort, die Suchergebnisse aus einem Index enthält. |
SearchDocumentsResult |
Antwort, die Suchergebnisse aus einem Index enthält. |
SearchDocumentsResultBase |
Antwort, die Suchergebnisse aus einem Index enthält. |
SearchIndex |
Stellt eine Suchindexdefinition dar, die die Felder und das Suchverhalten eines Indexes beschreibt. |
SearchIndexClientOptions |
Clientoptionen, die zum Konfigurieren von API-Anforderungen für die kognitive Suche verwendet werden. |
SearchIndexStatistics |
Statistiken für einen bestimmten Index. Statistiken werden regelmäßig gesammelt und sind nicht garantiert immer up-to-datum. |
SearchIndexer |
Stellt einen Indexer dar. |
SearchIndexerClientOptions |
Clientoptionen, die zum Konfigurieren von API-Anforderungen für die kognitive Suche verwendet werden. |
SearchIndexerDataContainer |
Stellt Informationen zur Entität (z. B. Azure SQL-Tabelle oder CosmosDB-Auflistung) dar, die indiziert wird. |
SearchIndexerDataNoneIdentity |
Löscht die Identitätseigenschaft einer Datenquelle. |
SearchIndexerDataSourceConnection |
Stellt eine Datenquellendefinition dar, die zum Konfigurieren eines Indexers verwendet werden kann. |
SearchIndexerDataUserAssignedIdentity |
Gibt die Identität für eine zu verwendende Datenquelle an. |
SearchIndexerError |
Stellt einen Indizierungsfehler auf Element- oder Dokumentebene dar. |
SearchIndexerIndexProjection |
Definition zusätzlicher Projektionen für sekundäre Suchindizes. |
SearchIndexerIndexProjectionParameters |
Ein Wörterbuch mit indexprojektionsspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen. |
SearchIndexerIndexProjectionSelector |
Beschreibung, welche Daten im angegebenen Suchindex gespeichert werden sollen. |
SearchIndexerKnowledgeStore |
Definition zusätzlicher Projektionen für Azure Blob, Tabelle oder Dateien mit erweiterten Daten. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Abstrakte Klasse zum Freigeben von Eigenschaften zwischen betonen Selektoren. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Projektionsdefinition für die Daten, die in Azure Files gespeichert werden sollen. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Projektionsdefinition für die Daten, die in Azure Blob gespeichert werden sollen. |
SearchIndexerKnowledgeStoreParameters |
Ein Wörterbuch mit Wissensspeicher-spezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen. |
SearchIndexerKnowledgeStoreProjection |
Containerobjekt für verschiedene Projektionsmarkierer. |
SearchIndexerKnowledgeStoreProjectionSelector |
Abstrakte Klasse zum Freigeben von Eigenschaften zwischen betonen Selektoren. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Beschreibung, welche Daten in Azure-Tabellen gespeichert werden sollen. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Eine Liste der Fähigkeiten. |
SearchIndexerStatus |
Stellt den aktuellen Status und den Ausführungsverlauf eines Indexers dar. |
SearchIndexerWarning |
Stellt eine Warnung auf Elementebene dar. |
SearchIndexingBufferedSenderOptions |
Optionen für SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Ein vom Kunden verwalteter Verschlüsselungsschlüssel im Azure Key Vault. Schlüssel, die Sie erstellen und verwalten, können zum Verschlüsseln oder Entschlüsseln ruhender Daten in Azure Cognitive Search verwendet werden, z. B. Indizes und Synonymzuordnungen. |
SearchServiceStatistics |
Antwort von einer Anforderung zum Abrufen von Dienststatistiken. Wenn dies erfolgreich ist, enthält es Leistungsindikatoren und Grenzwerte auf Serviceebene. |
SearchSuggester |
Definiert, wie die Vorschlags-API auf eine Gruppe von Feldern im Index angewendet werden soll. |
SemanticConfiguration |
Definiert eine bestimmte Konfiguration, die im Kontext der semantischen Funktionen verwendet werden soll. |
SemanticField |
Ein Feld, das als Teil der semantischen Konfiguration verwendet wird. |
SemanticPrioritizedFields |
Beschreibt die Felder "Titel", "Inhalt" und "Schlüsselwörter", die für semantische Rangfolge, Beschriftungen, Hervorhebungen und Antworten verwendet werden sollen. |
SemanticSearch |
Definiert Parameter für einen Suchindex, der die semantischen Funktionen beeinflusst. |
SemanticSearchOptions |
Definiert Optionen für semantische Suchabfragen |
SentimentSkill |
Textanalyse positive negative Stimmungsanalyse, bewertet als Gleitkommawert in einem Bereich von Null bis 1. |
SentimentSkillV3 |
Mithilfe der Text Analytics-API werden unstrukturierter Text ausgewertet und für jeden Datensatz Stimmungsbezeichnungen (z. B. "negativ", "neutral" und "positiv") basierend auf dem höchsten Konfidenzwert bereitgestellt, der vom Dienst auf Satz- und Dokumentebene gefunden wird. |
ServiceCounters |
Stellt Ressourcenzähler und Kontingente auf Dienstebene dar. |
ServiceLimits |
Stellt verschiedene Grenzwerte für Dienstebene dar. |
ShaperSkill |
Eine Fähigkeit zum Umgestalten der Ausgaben. Er erstellt einen komplexen Typ zur Unterstützung zusammengesetzter Felder (auch als mehrteilige Felder bezeichnet). |
ShingleTokenFilter |
Erstellt Kombinationen von Token als einzelnes Token. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
Similarity |
Basistyp für Ähnlichkeitsalgorithmen. Ähnlichkeitsalgorithmen werden verwendet, um Bewertungen zu berechnen, die Abfragen an Dokumente binden. Je höher die Bewertung ist, desto relevanter ist das Dokument für diese bestimmte Abfrage. Diese Bewertungen werden verwendet, um die Suchergebnisse zu bewerten. |
SimpleField |
Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. |
SnowballTokenFilter |
Ein Filter, der Wörter mit einem snowball-generierten Stammer abstammt. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
SoftDeleteColumnDeletionDetectionPolicy |
Definiert eine Datenlöscherkennungsrichtlinie, die eine Strategie für das vorläufige Löschen implementiert. Es bestimmt, ob ein Element basierend auf dem Wert einer festgelegten Spalte "vorläufiges Löschen" gelöscht werden soll. |
SplitSkill |
Eine Fähigkeit, eine Zeichenfolge in Textblöcke aufzuteilen. |
SqlIntegratedChangeTrackingPolicy |
Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen mithilfe des Integrierten Änderungsnachverfolgungsfeatures von Azure SQL-Datenbank erfasst. |
StemmerOverrideTokenFilter |
Bietet die Möglichkeit, andere Wortstammfilter mit benutzerwörterbuchbasierter Wortstammerkennung außer Kraft zu setzen. Alle wörterbuchstammigen Begriffe werden als Schlüsselwörter markiert, sodass sie nicht mit Stemmern in der Kette gestammt werden. Muss vor allen Stemmingfiltern platziert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
StemmerTokenFilter |
Sprachspezifischer Wortstammfilter. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
StopAnalyzer |
Dividiert Text in Nichtbuchstaben; Wendet die Tokenfilter in Kleinbuchstaben und Stoppwörtern an. Dieser Analyzer wird mit Apache Lucene implementiert. |
StopwordsTokenFilter |
Entfernt Stoppwörter aus einem Tokendatenstrom. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
SuggestDocumentsResult |
Antwort, die Vorschlagsabfrageergebnisse aus einem Index enthält. |
SuggestRequest |
Parameter zum Filtern, Sortieren, Fuzzyabgleich und andere Vorschläge abfrageverhalten. |
SynonymMap |
Stellt eine Synonymzuordnungsdefinition dar. |
SynonymTokenFilter |
Gleicht ein- oder mehrere Wort-Synonyme in einem Tokendatenstrom ab. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
TagScoringFunction |
Definiert eine Funktion, die Die Bewertungen von Dokumenten mit Zeichenfolgenwerten erhöht, die einer bestimmten Liste von Tags entsprechen. |
TagScoringParameters |
Stellt Parameterwerte für eine Tagbewertungsfunktion bereit. |
TextTranslationSkill |
Eine Fähigkeit zum Übersetzen von Text aus einer Sprache in eine andere. |
TextWeights |
Definiert Gewichtungen für Indexfelder, für die Übereinstimmungen die Bewertung in Suchabfragen erhöhen sollen. |
TruncateTokenFilter |
Schneidet die Begriffe auf eine bestimmte Länge ab. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
UaxUrlEmailTokenizer |
Tokenisiert URLs und E-Mails als ein Token. Dieser Tokenizer wird mit Apache Lucene implementiert. |
UniqueTokenFilter |
Filtert Token mit demselben Text wie das vorherige Token aus. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
VectorSearch |
Enthält Konfigurationsoptionen im Zusammenhang mit der Vektorsuche. |
VectorSearchOptions |
Definiert Optionen für Vektorsuchabfragen |
VectorSearchProfile |
Definiert eine Kombination von Konfigurationen, die mit der Vektorsuche verwendet werden sollen. |
VectorizableTextQuery |
Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn ein Textwert bereitgestellt wird, der vektorisiert werden muss. |
VectorizedQuery |
Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn ein unformatierter Vektorwert bereitgestellt wird. |
WebApiParameters |
Gibt die Eigenschaften für die Verbindung mit einem benutzerdefinierten Vektorizer an. |
WebApiSkill |
Eine Fähigkeit, die einen Web-API-Endpunkt aufrufen kann, sodass Sie ein Skillset erweitern können, indem Sie ihren benutzerdefinierten Code aufrufen. |
WebApiVectorizer |
Gibt einen benutzerdefinierten Vektorizer zum Generieren des Vektoreinbettungs einer Abfragezeichenfolge an. Die Integration eines externen Vektorizers erfolgt mithilfe der benutzerdefinierten Web-API-Schnittstelle eines Skillsets. |
WordDelimiterTokenFilter |
Teilt Wörter in Unterwörter auf und führt optionale Transformationen für Unterwortgruppen aus. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
Typaliase
AnalyzeTextOptions |
Optionen für die Textanalyse. |
AutocompleteMode |
Definiert Werte für AutoCompleteMode. |
AutocompleteOptions |
Optionen zum Abrufen von Abschlusstext für einen teilweisen SearchText. |
AzureOpenAIModelName |
Definiert Werte für AzureOpenAIModelName. Bekannte Werte, die vom Dienst unterstützt werden
text-embedding-ada-002 |
BlobIndexerDataToExtract | |
BlobIndexerImageAction | |
BlobIndexerPDFTextRotationAlgorithm | |
BlobIndexerParsingMode | |
CharFilter |
Enthält die möglichen Fälle für CharFilter. |
CharFilterName |
Definiert Werte für CharFilterName. Bekannte Werte, die vom Dienst unterstützt werdenhtml_strip: Ein Zeichenfilter, der versucht, HTML-Konstrukte zu entfernen. Siehe https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Definiert Werte für CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Enthält die möglichen Fälle für CognitiveServicesAccount. |
ComplexDataType |
Definiert Werte für ComplexDataType. Mögliche Werte sind: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
Optionen zum Ausführen des Zählungsvorgangs für den Index. |
CreateDataSourceConnectionOptions |
Optionen zum Erstellen des Datenquellenvorgangs. |
CreateIndexOptions |
Optionen zum Erstellen eines Indexvorgangs. |
CreateIndexerOptions |
Optionen zum Erstellen eines Indexervorgangs. |
CreateSkillsetOptions |
Optionen zum Erstellen von Skillset-Vorgängen. |
CreateSynonymMapOptions |
Optionen zum Erstellen eines Synonymmap-Vorgangs. |
CustomEntityLookupSkillLanguage | |
DataChangeDetectionPolicy |
Enthält die möglichen Fälle für DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Enthält die möglichen Fälle für DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Optionen für den Vorgang zum Löschen von Dokumenten. |
EdgeNGramTokenFilterSide |
Definiert Werte für EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage | |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Enthält Konfigurationsoptionen, die spezifisch für den vollständigen KNN-Algorithmus sind, der während der Abfrage verwendet wird, wodurch die Brute-Force-Suche im gesamten Vektorindex ausgeführt wird. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Optionen zum Abrufen des Datenquellenvorgangs. |
GetIndexOptions |
Optionen zum Abrufen des Indexvorgangs. |
GetIndexStatisticsOptions |
Optionen zum Abrufen des Indexstatistikvorgangs. |
GetIndexerOptions |
Optionen zum Abrufen des Indexervorgangs. |
GetIndexerStatusOptions |
Optionen zum Abrufen des Indexerstatusvorgangs. |
GetServiceStatisticsOptions |
Optionen zum Abrufen des Dienststatistikvorgangs. |
GetSkillSetOptions |
Optionen zum Abrufen des Skillset-Vorgangs. |
GetSynonymMapsOptions |
Optionen zum Abrufen des Synonymmaps-Vorgangs. |
HnswAlgorithmConfiguration |
Enthält Konfigurationsoptionen, die spezifisch für den hnsw näheren Nachbaralgorithmus sind, der während der Indizierungszeit verwendet wird. |
ImageAnalysisSkillLanguage | |
ImageDetail | |
IndexActionType |
Definiert Werte für IndexActionType. |
IndexDocumentsAction |
Stellt eine Indexaktion dar, die auf einem Dokument ausgeführt wird. |
IndexIterator |
Ein Iterator zum Auflisten der Indizes, die im Suchdienst vorhanden sind. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
IndexNameIterator |
Ein Iterator zum Auflisten der Indizes, die im Suchdienst vorhanden sind. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
IndexProjectionMode |
Definiert Werte für IndexProjectionMode. Bekannte Werte, die vom Dienst unterstützt werden
skipIndexingParentDocuments: Das Quelldokument wird vom Schreiben in den Zielindex des Indexers übersprungen. |
IndexerExecutionEnvironment | |
IndexerExecutionStatus |
Definiert Werte für IndexerExecutionStatus. |
IndexerStatus |
Definiert Werte für IndexerStatus. |
KeyPhraseExtractionSkillLanguage | |
LexicalAnalyzer |
Enthält die möglichen Fälle für Analyzer. |
LexicalAnalyzerName |
Definiert Werte für LexicalAnalyzerName. Bekannte Werte, die vom Dienst unterstützt werden
ar.microsoft: Microsoft Analyzer für Arabisch. |
LexicalTokenizer |
Enthält die möglichen Fälle für Tokenizer. |
LexicalTokenizerName |
Definiert Werte für LexicalTokenizerName. Bekannte Werte, die vom Dienst unterstützt werden
klassischen: Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente in Europa geeignet ist. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Optionen für einen Listendatenquellenvorgang. |
ListIndexersOptions |
Optionen für einen Listenindizierungsvorgang. |
ListIndexesOptions |
Optionen für einen Listenindexvorgang. |
ListSkillsetsOptions |
Optionen für einen Listen-Skillsets-Vorgang. |
ListSynonymMapsOptions |
Optionen für einen Listen synonymMaps-Vorgang. |
MergeDocumentsOptions |
Optionen für den Vorgang "Dokumente zusammenführen". |
MergeOrUploadDocumentsOptions |
Optionen für den Vorgang zum Zusammenführen oder Hochladen von Dokumenten. |
MicrosoftStemmingTokenizerLanguage |
Definiert Werte für MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Definiert Werte für MicrosoftTokenizerLanguage. |
NarrowedModel |
Beschränkt den Modelltyp so, dass nur die ausgewählten Felder enthalten sind. |
OcrLineEnding |
Definiert Werte für OcrLineEnding. Bekannte Werte, die vom Dienst unterstützt werden
Leerzeichen: Zeilen werden durch ein einzelnes Leerzeichen getrennt. |
OcrSkillLanguage | |
PIIDetectionSkillMaskingMode | |
PhoneticEncoder |
Definiert Werte für PhoneticEncoder. |
QueryAnswer |
Ein Wert, der angibt, ob Antworten als Teil der Suchantwort zurückgegeben werden sollen.
Dieser Parameter ist nur gültig, wenn der Abfragetyp "semantisch" ist. Wenn sie auf |
QueryCaption |
Ein Wert, der angibt, ob Beschriftungen als Teil der Suchantwort zurückgegeben werden sollen. Dieser Parameter ist nur gültig, wenn der Abfragetyp "semantisch" ist. Wenn festgelegt, gibt die Abfrage Beschriftungen zurück, die aus Schlüsselabschnitten in den höchsten bewerteten Dokumenten extrahiert wurden. Wenn Beschriftungen "extraktiv" sind, ist die Hervorhebung standardmäßig aktiviert. Der Standardwert ist "none". |
QueryType |
Definiert Werte für QueryType. |
RegexFlags | |
ResetIndexerOptions |
Optionen zum Zurücksetzen des Indexervorgangs. |
RunIndexerOptions |
Optionen zum Ausführen des Indexervorgangs. |
ScoringFunction |
Enthält die möglichen Fälle für ScoringFunction. |
ScoringFunctionAggregation |
Definiert Werte für ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Definiert Werte für ScoringFunctionInterpolation. |
ScoringStatistics |
Definiert Werte für ScoringStatistics. |
SearchField |
Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. |
SearchFieldArray |
Wenn |
SearchFieldDataType |
Definiert Werte für SearchFieldDataType. Bekannte Werte, die vom Dienst unterstützt werden:Edm.String: Gibt an, dass ein Feld eine Zeichenfolge enthält. Edm.Int32-: Gibt an, dass ein Feld eine 32-Bit-Ganzzahl mit Vorzeichen enthält. Edm.Int64-: Gibt an, dass ein Feld eine 64-Bit-Ganzzahl enthält. Edm.Double: Gibt an, dass ein Feld eine IEEE-Gleitkommazahl mit doppelter Genauigkeit enthält. Edm.Boolean: Gibt an, dass ein Feld einen booleschen Wert (true oder false) enthält. Edm.DateTimeOffset: Gibt an, dass ein Feld einen Datums-/Uhrzeitwert enthält, einschließlich Zeitzoneninformationen. Edm.GeographyPoint: Gibt an, dass ein Feld einen geografischen Standort in Bezug auf Längengrad und Breitengrad enthält. Edm.ComplexType: Gibt an, dass ein Feld ein oder mehrere komplexe Objekte enthält, die wiederum Unterfelder anderer Typen aufweisen. Edm.Single: Gibt an, dass ein Feld eine Gleitkommazahl mit einfacher Genauigkeit enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Single). Edm.Half: Gibt an, dass ein Feld eine Gleitkommazahl mit halber Genauigkeit enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Half). Edm.Int16-: Gibt an, dass ein Feld eine 16-Bit-ganzzahlige Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Int16). Edm.SByte-: Gibt an, dass ein Feld eine 8-Bit-ganzzahl mit Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.SByte). Edm.Byte-: Gibt an, dass ein Feld eine 8-Bit-ganzzahl ohne Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Byte). |
SearchIndexerDataIdentity |
Enthält die möglichen Fälle für SearchIndexerDataIdentity. |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Enthält die möglichen Fälle für Skill. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Optionen für SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Optionen für SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Optionen für SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Optionen für SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Optionen für SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Ein Iterator für Suchergebnisse einer Paticular-Abfrage. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
SearchMode |
Definiert Werte für SearchMode. |
SearchOptions |
Optionen für das Commit einer vollständigen Suchanforderung. |
SearchPick |
Wählen Sie tief Felder von T unter Verwendung gültiger OData-$select Pfade der kognitiven Suche aus. |
SearchRequestOptions |
Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten. |
SearchRequestQueryTypeOptions | |
SearchResult |
Enthält ein Dokument, das von einer Suchabfrage gefunden wurde, sowie zugeordnete Metadaten. |
SelectArray |
Wenn |
SelectFields |
Erzeugt eine Vereinigung gültiger OData-$select Pfade für T mithilfe einer Nachreihenfolge des Feldbaums, der bei T verwurzelt ist. |
SemanticErrorMode | |
SemanticErrorReason | |
SemanticSearchResultsType | |
SentimentSkillLanguage | |
SimilarityAlgorithm |
Enthält die möglichen Fälle für Ähnlichkeit. |
SnowballTokenFilterLanguage |
Definiert Werte für SnowballTokenFilterLanguage. |
SplitSkillLanguage | |
StemmerTokenFilterLanguage |
Definiert Werte für StemmerTokenFilterLanguage. |
StopwordsList |
Definiert Werte für StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Optionen zum Abrufen von Vorschlägen basierend auf dem searchText. |
SuggestResult |
Ein Ergebnis, das ein Dokument enthält, das von einer Vorschlagsabfrage gefunden wurde, sowie zugeordnete Metadaten. |
TextSplitMode | |
TextTranslationSkillLanguage | |
TokenCharacterKind |
Definiert Werte für TokenCharacterKind. |
TokenFilter |
Enthält die möglichen Fälle für TokenFilter. |
TokenFilterName |
Definiert Werte für TokenFilterName. Bekannte Werte, die vom Dienst unterstützt werden
arabic_normalization: Ein Tokenfilter, der den arabischen Normalisierer anwendet, um die Orthografie zu normalisieren. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Optionen für den Vorgang zum Hochladen von Dokumenten. |
VectorEncodingFormat |
Definiert Werte für VectorEncodingFormat. Bekannte Werte, die vom Dienst unterstützt werdenpackedBit-: Codierungsformat, das Bits darstellt, die in einen breiteren Datentyp verpackt sind. |
VectorFilterMode | |
VectorQuery |
Die Abfrageparameter für Vektor- und Hybridsuchabfragen. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Enthält konfigurationsspezifische Optionen für den Algorithmus, der während der Indizierung und/oder Abfrage verwendet wird. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric | |
VectorSearchCompression |
Enthält konfigurationsspezifische Optionen für die Komprimierungsmethode, die während der Indizierung oder Abfrage verwendet wird. |
VectorSearchCompressionKind |
Definiert Werte für VectorSearchCompressionKind. Bekannte Werte, die vom Dienst unterstützt werden
skalarQuantization: Scalar Quantization, eine Art von Komprimierungsmethode. In der skalaren Quantisierung werden die ursprünglichen Vektorwerte in einen schmaleren Typ komprimiert, indem jede Komponente eines Vektors mithilfe eines reduzierten Satzes quantisierter Werte diskretiert und dargestellt wird, wodurch die Gesamtdatengröße reduziert wird. |
VectorSearchCompressionTarget |
Definiert Werte für VectorSearchCompressionTarget. Bekannte Werte, die vom Dienst unterstützt werdenint8 |
VectorSearchVectorizer |
Enthält Konfigurationsoptionen zum Vektorisieren von Textvektorabfragen. |
VectorSearchVectorizerKind |
Definiert Werte für VectorSearchVectorizerKind. Bekannte Werte, die vom Dienst unterstützt werden
azureOpenAI-: Generieren Sie Einbettungen mithilfe einer Azure OpenAI-Ressource zur Abfragezeit. |
VisualFeature |
Enumerationen
KnownAnalyzerNames |
Definiert Werte für AnalyzerName. Siehe https://docs.microsoft.com/rest/api/searchservice/Language-support |
KnownAzureOpenAIModelName |
Bekannte Werte von AzureOpenAIModelName, die der Dienst akzeptiert. |
KnownBlobIndexerDataToExtract |
Bekannte Werte von BlobIndexerDataToExtract, die der Dienst akzeptiert. |
KnownBlobIndexerImageAction |
Bekannte Werte von BlobIndexerImageAction, die der Dienst akzeptiert. |
KnownBlobIndexerPDFTextRotationAlgorithm |
Bekannte Werte von BlobIndexerPDFTextRotationAlgorithm, die der Dienst akzeptiert. |
KnownBlobIndexerParsingMode |
Bekannte Werte von BlobIndexerParsingMode, die der Dienst akzeptiert. |
KnownCharFilterNames |
Bekannte Werte von CharFilterName, die der Dienst akzeptiert. |
KnownCustomEntityLookupSkillLanguage |
Bekannte Werte von CustomEntityLookupSkillLanguage, die der Dienst akzeptiert. |
KnownEntityCategory |
Bekannte Werte von EntityCategory, die der Dienst akzeptiert. |
KnownEntityRecognitionSkillLanguage |
Bekannte Werte von EntityRecognitionSkillLanguage, die der Dienst akzeptiert. |
KnownImageAnalysisSkillLanguage |
Bekannte Werte von ImageAnalysisSkillLanguage, die der Dienst akzeptiert. |
KnownImageDetail |
Bekannte Werte von ImageDetail-, die der Dienst akzeptiert. |
KnownIndexProjectionMode |
Bekannte Werte von IndexProjectionMode, die der Dienst akzeptiert. |
KnownIndexerExecutionEnvironment |
Bekannte Werte von IndexerExecutionEnvironment, die der Dienst akzeptiert. |
KnownKeyPhraseExtractionSkillLanguage |
Bekannte Werte von KeyPhraseExtractionSkillLanguage, die der Dienst akzeptiert. |
KnownOcrLineEnding |
Bekannte Werte von OcrLineEnding, die der Dienst akzeptiert. |
KnownOcrSkillLanguage |
Bekannte Werte von OcrSkillLanguage, die der Dienst akzeptiert. |
KnownPIIDetectionSkillMaskingMode |
Bekannte Werte von PIIDetectionSkillMaskingMode, die der Dienst akzeptiert. |
KnownRegexFlags |
Bekannte Werte von RegexFlags, die der Dienst akzeptiert. |
KnownSearchAudience |
Bekannte Werte für die Suchgruppe |
KnownSearchFieldDataType |
Bekannte Werte von SearchFieldDataType, die der Dienst akzeptiert. |
KnownSearchIndexerDataSourceType |
Bekannte Werte von SearchIndexerDataSourceType, die der Dienst akzeptiert. |
KnownSemanticErrorMode |
Bekannte Werte von SemanticErrorMode, die der Dienst akzeptiert. |
KnownSemanticErrorReason |
Bekannte Werte von SemanticErrorReason, die der Dienst akzeptiert. |
KnownSemanticSearchResultsType |
Bekannte Werte von SemanticSearchResultsType, die der Dienst akzeptiert. |
KnownSentimentSkillLanguage |
Bekannte Werte von SentimentSkillLanguage, die der Dienst akzeptiert. |
KnownSplitSkillLanguage |
Bekannte Werte von SplitSkillLanguage, die der Dienst akzeptiert. |
KnownTextSplitMode |
Bekannte Werte von TextSplitMode, die der Dienst akzeptiert. |
KnownTextTranslationSkillLanguage |
Bekannte Werte von TextTranslationSkillLanguage, die der Dienst akzeptiert. |
KnownTokenFilterNames |
Bekannte Werte von TokenFilterName, die der Dienst akzeptiert. |
KnownTokenizerNames |
Bekannte Werte von LexicalTokenizerName, die der Dienst akzeptiert. |
KnownVectorEncodingFormat |
Bekannte Werte von VectorEncodingFormat, die der Dienst akzeptiert. |
KnownVectorFilterMode |
Bekannte Werte von VectorFilterMode, die der Dienst akzeptiert. |
KnownVectorQueryKind |
Bekannte Werte von VectorQueryKind, die der Dienst akzeptiert. |
KnownVectorSearchAlgorithmKind |
Bekannte Werte von VectorSearchAlgorithmKind, die der Dienst akzeptiert. |
KnownVectorSearchAlgorithmMetric |
Bekannte Werte von VectorSearchAlgorithmMetric, die der Dienst akzeptiert. |
KnownVectorSearchCompressionKind |
Bekannte Werte von VectorSearchCompressionKind, die der Dienst akzeptiert. |
KnownVectorSearchCompressionTarget |
Bekannte Werte von VectorSearchCompressionTarget, die der Dienst akzeptiert. |
KnownVectorSearchVectorizerKind |
Bekannte Werte von VectorSearchVectorizerKind, die der Dienst akzeptiert. |
KnownVisualFeature |
Bekannte Werte von VisualFeature, die der Dienst akzeptiert. |
Functions
create |
Hilfsmethode zum Erstellen eines SynonymMap-Objekts. Dies ist eine einzige NodeJS-Methode. |
odata(Template |
Escapes an odata filter expression to avoid errors with quoting string literals. Beispielverwendung:
Weitere Informationen zur unterstützten Syntax finden Sie unter: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Details zur Funktion
createSynonymMapFromFile(string, string)
Hilfsmethode zum Erstellen eines SynonymMap-Objekts. Dies ist eine einzige NodeJS-Methode.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parameter
- name
-
string
Name der SynonymMap.
- filePath
-
string
Pfad der Datei, die die Synonyme enthält (getrennt durch neue Zeilen)
Gibt zurück
Promise<SynonymMap>
SynonymMap-Objekt
odata(TemplateStringsArray, unknown[])
Escapes an odata filter expression to avoid errors with quoting string literals. Beispielverwendung:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Weitere Informationen zur unterstützten Syntax finden Sie unter: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parameter
- strings
-
TemplateStringsArray
Array von Zeichenfolgen für den Ausdruck
- values
-
unknown[]
Array von Werten für den Ausdruck
Gibt zurück
string