@azure/search-documents package
Klassen
| AzureKeyCredential |
Statische Schlüsselbasierte Anmeldeinformationen, die das Aktualisieren des zugrunde liegenden Schlüsselwerts unterstützen. |
| GeographyPoint |
Stellt einen geografischen Punkt in globalen Koordinaten dar. |
| IndexDocumentsBatch |
Klasse, die zum Ausführen von Batchvorgängen mit mehreren Dokumenten im Index verwendet wird. |
| KnowledgeRetrievalClient |
Die Klasse wird verwendet, um Operationen gegen eine Wissensdatenbank auszuführen. |
| SearchClient |
Klasse, die zum Ausführen von Vorgängen für einen Suchindex verwendet wird, einschließlich Abfragen von Dokumenten im Index sowie Hinzufügen, Aktualisieren und Entfernen von Dokumenten. |
| SearchIndexClient |
Klasse zum Ausführen von Vorgängen zum Verwalten (Erstellen, Aktualisieren, Auflisten/Löschen) & Synonymmaps. |
| SearchIndexerClient |
Klasse zum Ausführen von Vorgängen zum Verwalten (Erstellen, Aktualisieren, Listen/Löschen) von Indexern, Datenquellen & Skillsets. |
| SearchIndexingBufferedSender |
Klasse, die zum Ausführen von gepufferten Vorgängen für einen Suchindex verwendet wird, einschließlich Hinzufügen, Aktualisieren und Entfernen dieser Vorgänge. |
Schnittstellen
| AIServices |
Parameter für die Azure Blob Storage-Wissensquelle. |
| AIServicesAccountIdentity |
Das Multi-Region-Konto einer Azure AI-Dienstressource, die einem Skillset zugeordnet ist. |
| AIServicesAccountKey |
Der Kontoschlüssel einer Azure AI-Dienstressource, die einem Skillset zugeordnet ist, die mit der Unterdomäne der Ressource verwendet werden soll. |
| AIServicesVisionParameters |
Gibt die AI Services Vision-Parameter zum Vektorisieren eines Abfragebilds oder Texts an. |
| AIServicesVisionVectorizer |
Gibt die AI Services Vision-Parameter zum Vektorisieren eines Abfragebilds oder Texts an. |
| AnalyzeRequest |
Gibt einige Text- und Analysekomponenten an, die zum Aufteilen dieses Texts in Token verwendet werden. |
| AnalyzeResult |
Das Ergebnis des Tests eines Analyzers auf Text. |
| AnalyzedTokenInfo |
Informationen zu einem token, das von einem Analyzer zurückgegeben wird. |
| AsciiFoldingTokenFilter |
Konvertiert alphabetische, numerische und symbolische Unicode-Zeichen, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") befinden, in ihre ASCII-Entsprechungen, wenn solche Entsprechungen vorhanden sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| AutocompleteItem |
Das Ergebnis von AutoVervollständigen-Anforderungen. |
| AutocompleteRequest |
Parameter für fuzzy matching, and other autocomplete query behaviors. |
| AutocompleteResult |
Das Ergebnis der AutoVervollständigen-Abfrage. |
| AzureActiveDirectoryApplicationCredentials |
Anmeldeinformationen einer registrierten Anwendung, die für Ihren Suchdienst erstellt wurde und für authentifizierten Zugriff auf die im Azure Key Vault gespeicherten Verschlüsselungsschlüssel verwendet wird. |
| AzureBlobKnowledgeSource |
Konfiguration für die Azure Blob Storage-Wissensquelle. |
| AzureBlobKnowledgeSourceParameters |
Parameter für die Azure Blob Storage-Wissensquelle. |
| AzureBlobKnowledgeSourceParams |
Gibt Laufzeitparameter für eine Azure Blob-Wissensquelle an |
| AzureMachineLearningSkill |
Mit der AML-Fähigkeit können Sie die KI-Anreicherung mit einem benutzerdefinierten AmL-Modell (Azure Machine Learning) erweitern. Sobald ein AML-Modell trainiert und bereitgestellt wird, integriert eine AML-Fähigkeit sie in die KI-Anreicherung. |
| AzureMachineLearningVectorizer |
Gibt einen Azure Machine Learning-Endpunkt an, der über den Azure AI Foundry-Modellkatalog zum Generieren der Vektoreinbettung einer Abfragezeichenfolge bereitgestellt wird. |
| AzureOpenAIEmbeddingSkill |
Ermöglicht es Ihnen, einen Vektoreinbettung für eine bestimmte Texteingabe mithilfe der Azure OpenAI-Ressource zu generieren. |
| AzureOpenAIParameters |
Gibt die Parameter für die Verbindung mit der Azure OpenAI-Ressource an. |
| AzureOpenAITokenizerParameters | |
| AzureOpenAIVectorizer |
Enthält die Parameter, die für die Verwendung eines Azure Open AI-Diensts für die Vektorisierung zur Abfragezeit spezifisch sind. |
| BM25Similarity |
Bewertungsfunktion basierend auf dem Okapi BM25 Ähnlichkeitsalgorithmus. BM25 ist ein TF-IDF-like-Algorithmus, der die Längennormalisierung (gesteuert durch den Parameter "b") sowie die Begriffsfrequenzsättigung (gesteuert durch den Parameter "k1") enthält. |
| BaseAzureMachineLearningVectorizerParameters |
Gibt die Eigenschaften an, die zwischen allen AML-Vektorizer-Authentifizierungstypen gemeinsam sind. |
| BaseCharFilter |
Basistyp für Zeichenfilter. |
| BaseCognitiveServicesAccount |
Basistyp für die Beschreibung einer Azure AI-Dienstressource, die einem Skillset zugeordnet ist. |
| BaseDataChangeDetectionPolicy |
Basistyp für Datenänderungserkennungsrichtlinien. |
| BaseDataDeletionDetectionPolicy |
Basistyp für Erkennungsrichtlinien für die Datenlöschung. |
| BaseKnowledgeBaseActivityRecord |
Basistyp für Aktivitätsdatensätze. |
| BaseKnowledgeBaseMessageContent |
Gibt den Typ des Nachrichteninhalts an. |
| BaseKnowledgeBaseModel |
Gibt die Verbindungsparameter an, die das Modell für die Abfrageplanung verwenden soll. |
| BaseKnowledgeBaseReference |
Basistyp für Referenzen. |
| BaseKnowledgeBaseRetrievalActivityRecord |
Stellt einen Datensatz der Abrufaktivität dar. |
| BaseKnowledgeRetrievalReasoningEffort | |
| BaseKnowledgeSource |
Stellt eine Wissensquellendefinition dar. |
| BaseKnowledgeSourceParams | |
| BaseKnowledgeSourceVectorizer |
Spezifiziert die Vektorisierungsmethode, die für das Knowledge Source Embedding-Modell verwendet werden soll, mit optionalem Namen. |
| BaseLexicalAnalyzer |
Basistyp für Analysegeräte. |
| BaseLexicalNormalizer |
Basistyp für Normalisierer. |
| BaseLexicalTokenizer |
Basistyp für Tokenizer. |
| BaseScoringFunction |
Basistyp für Funktionen, die Dokumentergebnisse während der Rangfolge ändern können. |
| BaseSearchIndexerDataIdentity |
Abstrakter Basistyp für Datenidentitäten. |
| BaseSearchIndexerSkill |
Basistyp für Fähigkeiten. |
| BaseSearchRequestOptions |
Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten. |
| BaseTokenFilter |
Basistyp für Tokenfilter. |
| BaseVectorQuery |
Die Abfrageparameter für Vektor- und Hybridsuchabfragen. |
| BaseVectorSearchAlgorithmConfiguration |
Enthält konfigurationsspezifische Optionen für den Algorithmus, der während der Indizierung und/oder Abfrage verwendet wird. |
| BaseVectorSearchCompression |
Enthält konfigurationsspezifische Optionen für die Komprimierungsmethode, die während der Indizierung oder Abfrage verwendet wird. |
| BaseVectorSearchVectorizer |
Enthält spezifische Details für eine Vektorisierungsmethode, die während der Abfragezeit verwendet werden soll. |
| BaseVectorThreshold |
Der Schwellenwert, der für Vektorabfragen verwendet wird. |
| BinaryQuantizationCompression |
Enthält konfigurationsspezifische Konfigurationsoptionen für die Komprimierungsmethode der binären Quantisierung, die während der Indizierung und Abfrage verwendet wird. |
| ChatCompletionResponseFormat |
Bestimmt, wie die Antwort des Sprachmodells serialisiert werden soll. Der Standardwert ist 'text'. |
| ChatCompletionResponseFormatJsonSchemaProperties |
Ein offenes Wörterbuch für erweiterte Eigenschaften. Erforderlich, wenn 'type' == 'json_schema' |
| ChatCompletionSchema |
Objekt, das das benutzerdefinierte Schema definiert, das das Modell zum Strukturieren seiner Ausgabe verwendet. |
| ChatCompletionSkill |
Ein Skill, der ein Sprachmodell über den Endpunkt Chat Completions von Azure AI Foundry aufruft. |
| CjkBigramTokenFilter |
Bildet Bigrams von CJK-Ausdrücken, die aus dem Standardtokenizer generiert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| ClassicSimilarity |
Legacy-Ähnlichkeitsalgorithmus, der die Lucene TFIDFSimilarity-Implementierung von TF-IDF verwendet. Diese Variation von TF-IDF führt die Normalisierung statischer Dokumente sowie die Koordinierung von Faktoren ein, die Dokumente benachteiligen, die nur teilweise mit den durchsuchten Abfragen übereinstimmen. |
| ClassicTokenizer |
Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente mit europäischer Sprache geeignet ist. Dieser Tokenizer wird mit Apache Lucene implementiert. |
| CognitiveServicesAccountKey |
Der Multi-Region-Kontoschlüssel einer Azure AI-Dienstressource, die einem Skillset zugeordnet ist. |
| CommonGramTokenFilter |
Erstellen Sie Bigrams für häufig vorkommende Ausdrücke während der Indizierung. Einzelne Begriffe sind auch weiterhin indiziert, wobei Bigrams überlagert sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| CommonModelParameters |
Allgemeine Sprachmodellparameter für Chatvervollständigungen. Wenn nicht angegeben, werden Standardwerte verwendet. |
| CompletedSynchronizationState |
Stellt den abgeschlossenen Status der letzten Synchronisierung dar. |
| ComplexField |
Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. |
| ConditionalSkill |
Eine Fähigkeit, die Szenarien ermöglicht, die einen booleschen Vorgang erfordern, um die Daten zu bestimmen, die einer Ausgabe zugewiesen werden sollen. |
| ContentUnderstandingSkill |
Eine Fähigkeit, die Azure AI Content Understanding nutzt, um strukturierte Erkenntnisse aus Dokumenten zu verarbeiten und zu extrahieren und so angereicherte, durchsuchbare Inhalte für eine verbesserte Dokumentenindizierung und -abfrage zu ermöglichen |
| ContentUnderstandingSkillChunkingProperties |
Steuert die Kardinalität für das Segmentieren des Inhalts. |
| CorsOptions |
Definiert Optionen zum Steuern der cross-Origin Resource Sharing (CORS) für einen Index. |
| CreateKnowledgeBaseOptions | |
| CreateKnowledgeSourceOptions | |
| CreateOrUpdateAliasOptions |
Optionen zum Erstellen oder Aktualisieren des Aliasvorgangs. |
| CreateOrUpdateIndexOptions |
Optionen zum Erstellen/Aktualisieren des Indexvorgangs. |
| CreateOrUpdateKnowledgeBaseOptions | |
| CreateOrUpdateKnowledgeSourceOptions | |
| CreateOrUpdateSkillsetOptions |
Optionen zum Erstellen/Aktualisieren des Skillset-Vorgangs. |
| CreateOrUpdateSynonymMapOptions |
Optionen zum Erstellen/Aktualisieren des Synonymmap-Vorgangs. |
| CreateorUpdateDataSourceConnectionOptions |
Optionen zum Erstellen/Aktualisieren des Datenquellenvorgangs. |
| CreateorUpdateIndexerOptions |
Optionen zum Erstellen/Aktualisieren des Indexervorgangs. |
| CustomAnalyzer |
Ermöglicht es Ihnen, den Prozess der Konvertierung von Text in in indizierbare/durchsuchbare Token zu übernehmen. Es ist eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für das Aufteilen von Text in Token verantwortlich, und die Filter zum Ändern von Token, die vom Tokenizer ausgegeben werden. |
| CustomEntity |
Ein Objekt, das Informationen zu den gefundenen Übereinstimmungen und verwandten Metadaten enthält. |
| CustomEntityAlias |
Ein komplexes Objekt, das verwendet werden kann, um alternative Schreibweisen oder Synonyme für den Namen der Stammentität anzugeben. |
| CustomEntityLookupSkill |
Eine Fähigkeit sucht nach Text aus einer benutzerdefinierten, benutzerdefinierten Liste von Wörtern und Ausdrücken. |
| CustomNormalizer |
Ermöglicht es Ihnen, die Normalisierung für filterbare, sortierbare und facetable-Felder zu konfigurieren, die standardmäßig mit striktem Abgleich funktionieren. Dies ist eine benutzerdefinierte Konfiguration, die aus mindestens einem Filter besteht, wodurch das gespeicherte Token geändert wird. |
| DebugInfo |
Enthält Debuginformationen, die verwendet werden können, um Ihre Suchergebnisse weiter zu untersuchen. |
| DefaultCognitiveServicesAccount |
Ein leeres Objekt, das die standardmäßige Azure AI-Dienstressource für ein Skillset darstellt. |
| DeleteAliasOptions |
Optionen zum Löschen des Aliasvorgangs. |
| DeleteDataSourceConnectionOptions |
Optionen zum Löschen des Datenquellenvorgangs. |
| DeleteIndexOptions |
Optionen für den Löschindexvorgang. |
| DeleteIndexerOptions |
Optionen zum Löschen des Indexervorgangs. |
| DeleteKnowledgeBaseOptions | |
| DeleteKnowledgeSourceOptions | |
| DeleteSkillsetOptions |
Optionen zum Löschen von Skillset-Operaion. |
| DeleteSynonymMapOptions |
Optionen zum Löschen des Synonymmap-Vorgangs. |
| DictionaryDecompounderTokenFilter |
Dekompiliert zusammengesetzte Wörter in vielen germanischen Sprachen. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| DistanceScoringFunction |
Definiert eine Funktion, die Bewertungen basierend auf der Entfernung von einem geografischen Standort erhöht. |
| DistanceScoringParameters |
Stellt Parameterwerte für eine Entfernungsbewertungsfunktion bereit. |
| DocumentDebugInfo |
Enthält Debuginformationen, die verwendet werden können, um Ihre Suchergebnisse weiter zu untersuchen. |
| DocumentExtractionSkill |
Eine Fähigkeit, die Inhalte aus einer Datei in der Anreicherungspipeline extrahiert. |
| DocumentIntelligenceLayoutSkill |
Eine Fähigkeit, die Inhalte und Layoutinformationen (als Markdown) über Azure AI Services aus Dateien innerhalb der Anreicherungspipeline extrahiert. |
| DocumentIntelligenceLayoutSkillChunkingProperties |
Steuert die Kardinalität für das Segmentieren des Inhalts. |
| EdgeNGramTokenFilter |
Generiert n Gramm der angegebenen Größe(n) beginnend von vorne oder hinten eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| EdgeNGramTokenizer |
Tokenisiert die Eingabe von einem Rand in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mit Apache Lucene implementiert. |
| ElisionTokenFilter |
Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| EntityLinkingSkill |
Mithilfe der Text Analytics-API werden verknüpfte Entitäten aus Text extrahiert. |
| EntityRecognitionSkill |
Erkennung der Textanalyseentität. |
| EntityRecognitionSkillV3 |
Mithilfe der Textanalyse-API werden Entitäten unterschiedlicher Typen aus Text extrahiert. |
| ExhaustiveKnnParameters |
Enthält die für den vollständigen KNN-Algorithmus spezifischen Parameter. |
| ExtractiveQueryAnswer |
Extrahiert Antwortkandidaten aus dem Inhalt der zurückgegebenen Dokumente als Antwort auf eine Abfrage, die als Frage in natürlicher Sprache ausgedrückt wird. |
| ExtractiveQueryCaption |
Extrahiert Beschriftungen aus den übereinstimmenden Dokumenten, die Passagen enthalten, die für die Suchabfrage relevant sind. |
| FacetResult |
Ein einzelner Bucket eines Facetabfrageergebnisses. Meldet die Anzahl der Dokumente mit einem Feldwert, der in einen bestimmten Bereich fällt oder einen bestimmten Wert oder ein bestimmtes Intervall aufweist. |
| FieldMapping |
Definiert eine Zuordnung zwischen einem Feld in einer Datenquelle und einem Zielfeld in einem Index. |
| FieldMappingFunction |
Stellt eine Funktion dar, die einen Wert aus einer Datenquelle vor der Indizierung transformiert. |
| FreshnessScoringFunction |
Definiert eine Funktion, die Bewertungen basierend auf dem Wert eines Datum-Uhrzeit-Felds erhöht. |
| FreshnessScoringParameters |
Stellt Parameterwerte für eine Aktualitätsbewertungsfunktion bereit. |
| GenerativeQueryRewrites |
Generieren Sie alternative Abfragebegriffe, um den Rückruf einer Suchanforderung zu erhöhen. |
| GetDocumentOptions |
Optionen zum Abrufen eines einzelnen Dokuments. |
| GetIndexStatsSummaryOptionalParams |
Optionale Parameter. |
| GetIndexStatsSummaryOptions | |
| GetKnowledgeBaseOptions | |
| GetKnowledgeSourceOptions | |
| GetKnowledgeSourceStatusOptions | |
| HighWaterMarkChangeDetectionPolicy |
Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen basierend auf dem Wert einer Wasserzeichenspalte erfasst. |
| HnswParameters |
Enthält die für den Hnsw-Algorithmus spezifischen Parameter. |
| HybridSearchOptions |
DDie Abfrageparameter zur Konfiguration von hybridem Suchverhalten. |
| ImageAnalysisSkill |
Eine Fähigkeit, die Bilddateien analysiert. Es extrahiert eine vielzahl von visuellen Features basierend auf dem Bildinhalt. |
| IndexDocumentsClient |
Client für Indexdokumente |
| IndexDocumentsOptions |
Optionen für den Indexbatchvorgang ändern. |
| IndexDocumentsResult |
Antwort, die den Status der Vorgänge für alle Dokumente in der Indizierungsanforderung enthält. |
| IndexStatisticsSummary |
Statistiken für einen bestimmten Index. Statistiken werden regelmäßig gesammelt und sind nicht garantiert immer up-to-datum. |
| IndexedOneLakeKnowledgeSource |
Konfiguration für die OneLake-Wissensquelle. |
| IndexedOneLakeKnowledgeSourceParameters |
Parameter für die OneLake-Wissensquelle. |
| IndexedOneLakeKnowledgeSourceParams |
Gibt Laufzeitparameter für eine indizierte OneLake-Wissensquelle an. |
| IndexedSharePointKnowledgeSource |
Konfiguration für SharePoint-Wissensquelle. |
| IndexedSharePointKnowledgeSourceParameters |
Parameter für die SharePoint-Wissensquelle. |
| IndexedSharePointKnowledgeSourceParams |
Gibt Laufzeitparameter für eine indizierte SharePoint-Wissensquelle an. |
| IndexerExecutionResult |
Stellt das Ergebnis einer einzelnen Indexerausführung dar. |
| IndexerRuntime |
Stellt den kumulativen Laufzeitverbrauch des Indexers im Dienst dar. |
| IndexerState |
Stellt den gesamten Zustand dar, der die aktuelle Ausführung des Indexers definiert und bestimmt. |
| IndexersResyncOptionalParams |
Optionale Parameter. |
| IndexingParameters |
Stellt Parameter für die Indizierungsausführung dar. |
| IndexingParametersConfiguration |
Ein Wörterbuch mit indexerspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen. |
| IndexingResult |
Status eines Indizierungsvorgangs für ein einzelnes Dokument. |
| IndexingSchedule |
Stellt einen Zeitplan für die Indizierungsausführung dar. |
| InputFieldMappingEntry |
Eingabefeldzuordnung für eine Fähigkeit. |
| KeepTokenFilter |
Ein Tokenfilter, der Token nur mit Text in einer angegebenen Liste von Wörtern speichert. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| KeyAuthAzureMachineLearningVectorizerParameters |
Gibt die Eigenschaften für die Verbindung mit einem AML-Vektorizer mit einem Authentifizierungsschlüssel an. |
| KeyPhraseExtractionSkill |
Eine Fähigkeit, die Textanalyse für die Extraktion von Schlüsselausdrücken verwendet. |
| KeywordMarkerTokenFilter |
Markiert Ausdrücke als Schlüsselwörter. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| KeywordTokenizer |
Gibt die gesamte Eingabe als einzelnes Token aus. Dieser Tokenizer wird mit Apache Lucene implementiert. |
| KnowledgeBase | |
| KnowledgeBaseAgenticReasoningActivityRecord |
Stellt einen Aktivitätsdatensatz für agentisches Denken dar. |
| KnowledgeBaseAzureBlobActivityArguments |
Stellt die Argumente dar, mit denen die Azure Blob-Abrufaktivität ausgeführt wurde. |
| KnowledgeBaseAzureBlobActivityRecord |
Stellt einen Azure-Blob-Abrufaktivitätsdatensatz dar. |
| KnowledgeBaseAzureBlobReference |
Stellt eine Azure Blob Storage-Dokumentreferenz dar. |
| KnowledgeBaseAzureOpenAIModel |
Gibt die Azure OpenAI-Ressource an, die für die Abfrageplanung verwendet wird. |
| KnowledgeBaseErrorAdditionalInfo |
Der Ressourcenverwaltungsfehler zusätzliche Informationen. |
| KnowledgeBaseErrorDetail |
Die Fehlerdetails. |
| KnowledgeBaseIndexedOneLakeActivityArguments |
Repräsentiert die Argumente, mit denen die indexierte OneLake-Abrufaktivität ausgeführt wurde. |
| KnowledgeBaseIndexedOneLakeActivityRecord |
Stellt einen indexierten OneLake-Abrufaktivitätsrekord dar. |
| KnowledgeBaseIndexedOneLakeReference |
Stellt eine Azure Blob Storage-Dokumentreferenz dar. |
| KnowledgeBaseIndexedSharePointActivityArguments |
Repräsentiert die Argumente, mit denen die indexierte SharePoint-Abrufaktivität ausgeführt wurde. |
| KnowledgeBaseIndexedSharePointActivityRecord |
Stellt einen indexierten SharePoint-Abrufaktivitätseintrag dar. |
| KnowledgeBaseIndexedSharePointReference |
Stellt eine Azure Blob Storage-Dokumentreferenz dar. |
| KnowledgeBaseMessage |
Das Nachrichtenstilobjekt in natürlicher Sprache. |
| KnowledgeBaseMessageImageContent |
Art der Textnachricht. |
| KnowledgeBaseMessageImageContentImage | |
| KnowledgeBaseMessageTextContent |
Art der Textnachricht. |
| KnowledgeBaseModelAnswerSynthesisActivityRecord |
Stellt einen Aktivitätsdatensatz für die LLM-Antwortsynthese dar. |
| KnowledgeBaseModelQueryPlanningActivityRecord |
Stellt einen Datensatz für die LLM-Abfrageplanungsaktivität dar. |
| KnowledgeBaseRemoteSharePointActivityArguments |
Repräsentiert die Argumente, mit denen die entfernte SharePoint-Abrufaktivität ausgeführt wurde. |
| KnowledgeBaseRemoteSharePointActivityRecord |
Repräsentiert einen Remote-SharePoint-Abrufaktivitätseintrag. |
| KnowledgeBaseRemoteSharePointReference |
Stellt eine entfernte SharePoint-Dokumentreferenz dar. |
| KnowledgeBaseRetrievalRequest |
Der Eingabevertrag für den Abrufauftrag. |
| KnowledgeBaseRetrievalResponse |
Der Ausgabevertrag für die Abrufantwort. |
| KnowledgeBaseSearchIndexActivityArguments |
Stellt die Argumente dar, mit denen die Aktivität zum Abrufen des Suchindex ausgeführt wurde. |
| KnowledgeBaseSearchIndexActivityRecord |
Stellt einen Aktivitätsdatensatz für den Suchindexabruf dar. |
| KnowledgeBaseSearchIndexFieldReference | |
| KnowledgeBaseSearchIndexReference |
Stellt eine Azure Search-Dokumentreferenz dar. |
| KnowledgeBaseWebActivityArguments |
Repräsentiert die Argumente, mit denen die Webabrufaktivität ausgeführt wurde. |
| KnowledgeBaseWebActivityRecord |
Stellt einen Datensatz für Webabrufaktivitäten dar. |
| KnowledgeBaseWebReference |
Stellt einen Verweis auf ein Webdokument dar. |
| KnowledgeRetrievalClientOptions |
Clientoptionen, die zum Konfigurieren von API-Anforderungen für die kognitive Suche verwendet werden. |
| KnowledgeRetrievalIntent |
Eine beabsichtigte Abfrage, die ohne Modellabfrageplanung ausgeführt werden soll. |
| KnowledgeRetrievalLowReasoningEffort |
Führen Sie das Abrufen von Wissen mit geringem Argumentationsaufwand durch. |
| KnowledgeRetrievalMediumReasoningEffort |
Führen Sie den Wissensabruf mit mittlerem Argumentationsaufwand durch. |
| KnowledgeRetrievalMinimalReasoningEffort |
Führen Sie den Wissensabruf mit minimalem Argumentationsaufwand durch. |
| KnowledgeRetrievalReasoningEffort | |
| KnowledgeRetrievalSemanticIntent |
Eine beabsichtigte Abfrage, die ohne Modellabfrageplanung ausgeführt werden soll. |
| KnowledgeSourceAzureOpenAIVectorizer |
Gibt die Azure OpenAI-Ressource an, die zum Vektorisieren einer Abfragezeichenfolge verwendet wird. |
| KnowledgeSourceIngestionParameters |
Konsolidiert alle allgemeinen Erfassungseinstellungen für Wissensquellen. |
| KnowledgeSourceReference | |
| KnowledgeSourceStatistics |
Statistische Informationen über den Verlauf der Synchronisierung von Wissensquellen. |
| KnowledgeSourceStatus |
Stellt den Status und den Synchronisierungsverlauf einer Wissensquelle dar. |
| LanguageDetectionSkill |
Eine Fähigkeit, die sprache des Eingabetexts zu erkennen und meldet einen einzigen Sprachcode für jedes Dokument, das auf der Anforderung übermittelt wurde. Der Sprachcode wird mit einer Bewertung gekoppelt, die die Konfidenz der Analyse angibt. |
| LengthTokenFilter |
Entfernt Wörter, die zu lang oder zu kurz sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| LimitTokenFilter |
Beschränkt die Anzahl der Token während der Indizierung. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| ListIndexStatsSummary |
Antwort auf eine Anforderung zum Abrufen einer Statistikzusammenfassung aller Indizes. Bei Erfolg werden die Statistiken der einzelnen Indizes im Dienst eingeschlossen. |
| ListKnowledgeBasesOptions | |
| ListKnowledgeSourcesOptions | |
| ListSearchResultsPageSettings |
Argumente zum Abrufen der nächsten Seite der Suchergebnisse. |
| LuceneStandardAnalyzer |
Standard Apache Lucene Analyzer; Zusammengesetzt aus dem Standardmäßigen Tokenizer, Kleinbuchstabenfilter und Stoppfilter. |
| LuceneStandardTokenizer |
Umbricht Text nach den Unicode-Textsegmentierungsregeln. Dieser Tokenizer wird mit Apache Lucene implementiert. |
| MagnitudeScoringFunction |
Definiert eine Funktion, die Bewertungen basierend auf der Größe eines numerischen Felds erhöht. |
| MagnitudeScoringParameters |
Stellt Parameterwerte für eine Bewertungsfunktion der Größe bereit. |
| MappingCharFilter |
Ein Zeichenfilter, der Zuordnungen anwendet, die mit der Zuordnungsoption definiert sind. Der Abgleich ist gierig (längster Musterabgleich bei einem bestimmten Punkt gewinnt). Ersetzung darf die leere Zeichenfolge sein. Dieser Zeichenfilter wird mit Apache Lucene implementiert. |
| MergeSkill |
Eine Fähigkeit zum Zusammenführen von zwei oder mehr Zeichenfolgen in einer einzigen einheitlichen Zeichenfolge mit einem optionalen benutzerdefinierten Trennzeichen, das jeden Komponententeil trennt. |
| MicrosoftLanguageStemmingTokenizer |
Dividiert Text mithilfe von sprachspezifischen Regeln und reduziert Wörter auf ihre Basisformulare. |
| MicrosoftLanguageTokenizer |
Dividiert Text mithilfe sprachspezifischer Regeln. |
| NGramTokenFilter |
Generiert n Gramm der angegebenen Größe(n). Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| NGramTokenizer |
Tokenisiert die Eingabe in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mit Apache Lucene implementiert. |
| NativeBlobSoftDeleteDeletionDetectionPolicy |
Definiert eine Datenlöscherkennungsrichtlinie, die das systemeigene Feature für das vorläufige Löschen von Azure Blob Storage für die Löscherkennung verwendet. |
| NoAuthAzureMachineLearningVectorizerParameters |
Gibt die Eigenschaften für die Verbindung mit einem AML-Vektorizer ohne Authentifizierung an. |
| OcrSkill |
Eine Fähigkeit, die Text aus Bilddateien extrahiert. |
| OutputFieldMappingEntry |
Ausgabefeldzuordnung für eine Fähigkeit. |
| PIIDetectionSkill |
Mithilfe der Text Analytics-API werden persönliche Informationen aus einem Eingabetext extrahiert und sie maskieren können. |
| PathHierarchyTokenizer |
Tokenizer für pfadähnliche Hierarchien. Dieser Tokenizer wird mit Apache Lucene implementiert. |
| PatternAnalyzer |
Trennt Text flexibel in Ausdrücke über ein Muster mit regulären Ausdrücken. Dieser Analyzer wird mit Apache Lucene implementiert. |
| PatternCaptureTokenFilter |
Verwendet Java regexes, um mehrere Token auszugeben – eine für jede Aufnahmegruppe in einem oder mehreren Mustern. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| PatternReplaceCharFilter |
Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Es verwendet einen regulären Ausdruck, um Zeichenabfolgen zu identifizieren, die beibehalten werden sollen, und ein Ersetzungsmuster, um zu ersetzende Zeichen zu identifizieren. Wenn Sie beispielsweise den Eingabetext "aa bb aa bb", das Muster "(aa)\s+(bb)" und den Ersatz "$1#$2" erhalten haben, lautet das Ergebnis "aa#bb aa#bb aa#bb". Dieser Zeichenfilter wird mit Apache Lucene implementiert. |
| PatternReplaceTokenFilter |
Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Es verwendet einen regulären Ausdruck, um Zeichenabfolgen zu identifizieren, die beibehalten werden sollen, und ein Ersetzungsmuster, um zu ersetzende Zeichen zu identifizieren. Wenn Sie beispielsweise den Eingabetext "aa bb aa bb", das Muster "(aa)\s+(bb)" und den Ersatz "$1#$2" erhalten haben, lautet das Ergebnis "aa#bb aa#bb aa#bb". Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| PatternTokenizer |
Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Dieser Tokenizer wird mit Apache Lucene implementiert. |
| PhoneticTokenFilter |
Erstellen Sie Token für phonetische Übereinstimmungen. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| QueryAnswerResult |
Eine Antwort ist eine Textpassage, die aus dem Inhalt der relevantesten Dokumente extrahiert wurde, die der Abfrage entsprechen. Antworten werden aus den wichtigsten Suchergebnissen extrahiert. Antwortkandidaten werden bewertet, und die wichtigsten Antworten werden ausgewählt. |
| QueryCaptionResult |
Beschriftungen sind die repräsentativsten Passagen aus dem Dokument relativ zur Suchabfrage. Sie werden häufig als Dokumentzusammenfassung verwendet. Beschriftungen werden nur für Abfragen vom Typ |
| QueryResultDocumentInnerHit |
Detaillierte Bewertungsinformationen für ein einzelnes Element einer komplexen Sammlung. |
| QueryResultDocumentRerankerInput |
Die unformatierten verketteten Zeichenfolgen, die an den semantischen Anreicherungsprozess gesendet wurden. |
| QueryResultDocumentSemanticField |
Beschreibung von Feldern, die an den semantischen Anreicherungsprozess gesendet wurden, sowie deren Verwendung |
| QueryResultDocumentSubscores |
Die Aufschlüsselung von Teilergebnissen zwischen den Text- und Vektorabfragekomponenten der Suchabfrage für dieses Dokument. Jede Vektorabfrage wird als separates Objekt in derselben Reihenfolge angezeigt, in der sie empfangen wurden. |
| QueryRewritesDebugInfo |
Enthält Debugginginformationen, die für Abfrageumschreibungen spezifisch sind. |
| QueryRewritesValuesDebugInfo |
Enthält Debugginginformationen, die für Abfrageumschreibungen spezifisch sind. |
| RemoteSharePointKnowledgeSource |
Konfiguration für Remote-SharePoint-Wissensquelle. |
| RemoteSharePointKnowledgeSourceParameters |
Parameter für die Remote-SharePoint-Wissensquelle. |
| RemoteSharePointKnowledgeSourceParams |
Gibt Laufzeitparameter für eine SharePoint-Remotewissensquelle an. |
| RescoringOptions |
Enthält die Optionen für die Korrektur. |
| ResetDocumentsOptions |
Optionen zum Zurücksetzen des Dokumentvorgangs. |
| ResetSkillsOptions |
Optionen für den Vorgang zum Zurücksetzen von Fähigkeiten. |
| ResourceCounter |
Stellt die Verwendung und das Kontingent einer Ressource dar. |
| RetrieveKnowledgeOptions | |
| ScalarQuantizationCompression |
Enthält Konfigurationsoptionen, die spezifisch für die skalare Quantisierungskomprimierungsmethode sind, die während der Indizierung und Abfrage verwendet wird. |
| ScalarQuantizationParameters |
Enthält die parameter, die für die Skalar quantization spezifisch sind. |
| ScoringProfile |
Definiert Parameter für einen Suchindex, der die Bewertung in Suchabfragen beeinflusst. |
| SearchAlias |
Stellt einen Indexalias dar, der eine Zuordnung vom Aliasnamen zu einem Index beschreibt. Der Aliasname kann anstelle des Indexnamens für unterstützte Vorgänge verwendet werden. |
| SearchClientOptions |
Clientoptionen, die zum Konfigurieren von AI Search API-Anforderungen verwendet werden. |
| SearchDocumentsPageResult |
Antwort, die Suchergebnisse aus einem Index enthält. |
| SearchDocumentsResult |
Antwort, die Suchergebnisse aus einem Index enthält. |
| SearchDocumentsResultBase |
Antwort, die Suchergebnisse aus einem Index enthält. |
| SearchIndex |
Stellt eine Suchindexdefinition dar, die die Felder und das Suchverhalten eines Indexes beschreibt. |
| SearchIndexClientOptions |
Clientoptionen, die zum Konfigurieren von AI Search API-Anforderungen verwendet werden. |
| SearchIndexFieldReference | |
| SearchIndexKnowledgeSource |
Wissensquelle, die auf einen Suchindex abzielt. |
| SearchIndexKnowledgeSourceParameters |
Parameter für die Wissensquelle für den Suchindex. |
| SearchIndexKnowledgeSourceParams |
Gibt Laufzeitparameter für eine Wissensquelle für Suchindex an |
| SearchIndexStatistics |
Statistiken für einen bestimmten Index. Statistiken werden regelmäßig gesammelt und sind nicht garantiert immer up-to-datum. |
| SearchIndexer |
Stellt einen Indexer dar. |
| SearchIndexerCache | |
| SearchIndexerClientOptions |
Clientoptionen, die zum Konfigurieren von AI Search API-Anforderungen verwendet werden. |
| SearchIndexerDataContainer |
Stellt Informationen zur Entität (z. B. Azure SQL-Tabelle oder CosmosDB-Auflistung) dar, die indiziert wird. |
| SearchIndexerDataNoneIdentity |
Löscht die Identitätseigenschaft einer Datenquelle. |
| SearchIndexerDataSourceConnection |
Stellt eine Datenquellendefinition dar, die zum Konfigurieren eines Indexers verwendet werden kann. |
| SearchIndexerDataUserAssignedIdentity |
Gibt die Identität für eine zu verwendende Datenquelle an. |
| SearchIndexerError |
Stellt einen Indizierungsfehler auf Element- oder Dokumentebene dar. |
| SearchIndexerIndexProjection |
Definition zusätzlicher Projektionen für sekundäre Suchindizes. |
| SearchIndexerIndexProjectionParameters |
Ein Wörterbuch mit indexprojektionsspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen. |
| SearchIndexerIndexProjectionSelector |
Beschreibung, welche Daten im angegebenen Suchindex gespeichert werden sollen. |
| SearchIndexerKnowledgeStore |
Definition zusätzlicher Projektionen für Azure Blob, Tabelle oder Dateien mit erweiterten Daten. |
| SearchIndexerKnowledgeStoreBlobProjectionSelector |
Abstrakte Klasse zum Freigeben von Eigenschaften zwischen betonen Selektoren. |
| SearchIndexerKnowledgeStoreFileProjectionSelector |
Projektionsdefinition für die Daten, die in Azure Files gespeichert werden sollen. |
| SearchIndexerKnowledgeStoreObjectProjectionSelector |
Projektionsdefinition für die Daten, die in Azure Blob gespeichert werden sollen. |
| SearchIndexerKnowledgeStoreParameters |
Ein Wörterbuch mit Wissensspeicher-spezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen. |
| SearchIndexerKnowledgeStoreProjection |
Containerobjekt für verschiedene Projektionsmarkierer. |
| SearchIndexerKnowledgeStoreProjectionSelector |
Abstrakte Klasse zum Freigeben von Eigenschaften zwischen betonen Selektoren. |
| SearchIndexerKnowledgeStoreTableProjectionSelector |
Beschreibung, welche Daten in Azure-Tabellen gespeichert werden sollen. |
| SearchIndexerLimits | |
| SearchIndexerSkillset |
Eine Liste der Fähigkeiten. |
| SearchIndexerStatus |
Stellt den aktuellen Status und den Ausführungsverlauf eines Indexers dar. |
| SearchIndexerWarning |
Stellt eine Warnung auf Elementebene dar. |
| SearchIndexingBufferedSenderOptions |
Optionen für SearchIndexingBufferedSender. |
| SearchResourceEncryptionKey |
Ein vom Kunden verwalteter Verschlüsselungsschlüssel im Azure Key Vault. Schlüssel, die Sie erstellen und verwalten, können zum Verschlüsseln oder Entschlüsseln von ruhenden Daten in Azure AI Search verwendet werden, z. B. Indizes und Synonymzuordnungen. |
| SearchScoreThreshold |
Die Ergebnisse der Vektorabfrage werden basierend auf dem Wert "@search.score" gefiltert. Beachten Sie, dass dies die @search.score, die als Teil der Suchantwort zurückgegeben wird. Die Schwellenwertrichtung wird für höhere @search.scoreausgewählt. |
| SearchServiceStatistics |
Antwort von einer Anforderung zum Abrufen von Dienststatistiken. Wenn dies erfolgreich ist, enthält es Leistungsindikatoren und Grenzwerte auf Serviceebene. |
| SearchSuggester |
Definiert, wie die Vorschlags-API auf eine Gruppe von Feldern im Index angewendet werden soll. |
| SemanticConfiguration |
Definiert eine bestimmte Konfiguration, die im Kontext der semantischen Funktionen verwendet werden soll. |
| SemanticDebugInfo |
Debugoptionen für semantische Suchabfragen. |
| SemanticField |
Ein Feld, das als Teil der semantischen Konfiguration verwendet wird. |
| SemanticPrioritizedFields |
Beschreibt die Felder "Titel", "Inhalt" und "Schlüsselwörter", die für semantische Rangfolge, Beschriftungen, Hervorhebungen und Antworten verwendet werden sollen. |
| SemanticSearch |
Definiert Parameter für einen Suchindex, der die semantischen Funktionen beeinflusst. |
| SemanticSearchOptions |
Definiert Optionen für semantische Suchabfragen |
| SentimentSkill |
Textanalyse positive negative Stimmungsanalyse, bewertet als Gleitkommawert in einem Bereich von Null bis 1. |
| SentimentSkillV3 |
Mithilfe der Text Analytics-API werden unstrukturierter Text ausgewertet und für jeden Datensatz Stimmungsbezeichnungen (z. B. "negativ", "neutral" und "positiv") basierend auf dem höchsten Konfidenzwert bereitgestellt, der vom Dienst auf Satz- und Dokumentebene gefunden wird. |
| ServiceCounters |
Stellt Ressourcenzähler und Kontingente auf Dienstebene dar. |
| ServiceLimits |
Stellt verschiedene Grenzwerte für Dienstebene dar. |
| ShaperSkill |
Eine Fähigkeit zum Umgestalten der Ausgaben. Er erstellt einen komplexen Typ zur Unterstützung zusammengesetzter Felder (auch als mehrteilige Felder bezeichnet). |
| SharePointSensitivityLabelInfo |
Informationen über das auf ein SharePoint-Dokument angewandte Sensitivitätsetikett. |
| ShingleTokenFilter |
Erstellt Kombinationen von Token als einzelnes Token. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| Similarity |
Basistyp für Ähnlichkeitsalgorithmen. Ähnlichkeitsalgorithmen werden verwendet, um Bewertungen zu berechnen, die Abfragen an Dokumente binden. Je höher die Bewertung ist, desto relevanter ist das Dokument für diese bestimmte Abfrage. Diese Bewertungen werden verwendet, um die Suchergebnisse zu bewerten. |
| SimpleField |
Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. |
| SingleVectorFieldResult |
Ein einzelnes Vektorfeldergebnis. Sowohl @search.score- als auch Vektor-Ähnlichkeitswerte werden zurückgegeben. Die Vektorähnlichkeit ist mit @search.score durch eine Formel verknüpft. |
| SnowballTokenFilter |
Ein Filter, der Wörter mit einem snowball-generierten Stammer abstammt. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| SoftDeleteColumnDeletionDetectionPolicy |
Definiert eine Datenlöscherkennungsrichtlinie, die eine Strategie für das vorläufige Löschen implementiert. Es bestimmt, ob ein Element basierend auf dem Wert einer festgelegten Spalte "vorläufiges Löschen" gelöscht werden soll. |
| SplitSkill |
Eine Fähigkeit, eine Zeichenfolge in Textblöcke aufzuteilen. |
| SqlIntegratedChangeTrackingPolicy |
Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen mithilfe des Integrierten Änderungsnachverfolgungsfeatures von Azure SQL-Datenbank erfasst. |
| StemmerOverrideTokenFilter |
Bietet die Möglichkeit, andere Wortstammfilter mit benutzerwörterbuchbasierter Wortstammerkennung außer Kraft zu setzen. Alle wörterbuchstammigen Begriffe werden als Schlüsselwörter markiert, sodass sie nicht mit Stemmern in der Kette gestammt werden. Muss vor allen Stemmingfiltern platziert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| StemmerTokenFilter |
Sprachspezifischer Wortstammfilter. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| StopAnalyzer |
Dividiert Text in Nichtbuchstaben; Wendet die Tokenfilter in Kleinbuchstaben und Stoppwörtern an. Dieser Analyzer wird mit Apache Lucene implementiert. |
| StopwordsTokenFilter |
Entfernt Stoppwörter aus einem Tokendatenstrom. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| SuggestDocumentsResult |
Antwort, die Vorschlagsabfrageergebnisse aus einem Index enthält. |
| SuggestRequest |
Parameter zum Filtern, Sortieren, Fuzzyabgleich und andere Vorschläge abfrageverhalten. |
| SynchronizationState |
Stellt den aktuellen Status einer laufenden Synchronisierung dar, die sich über mehrere Indexerausführungen erstreckt. |
| SynonymMap |
Stellt eine Synonymzuordnungsdefinition dar. |
| SynonymTokenFilter |
Gleicht ein- oder mehrere Wort-Synonyme in einem Tokendatenstrom ab. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| TagScoringFunction |
Definiert eine Funktion, die Die Bewertungen von Dokumenten mit Zeichenfolgenwerten erhöht, die einer bestimmten Liste von Tags entsprechen. |
| TagScoringParameters |
Stellt Parameterwerte für eine Tagbewertungsfunktion bereit. |
| TextResult |
Die BM25- oder Classic-Bewertung für den Textbereich der Abfrage. |
| TextTranslationSkill |
Eine Fähigkeit zum Übersetzen von Text aus einer Sprache in eine andere. |
| TextWeights |
Definiert Gewichtungen für Indexfelder, für die Übereinstimmungen die Bewertung in Suchabfragen erhöhen sollen. |
| TokenAuthAzureMachineLearningVectorizerParameters |
Gibt die Eigenschaften für die Verbindung mit einem AML-Vektorizer mit einer verwalteten Identität an. |
| TruncateTokenFilter |
Schneidet die Begriffe auf eine bestimmte Länge ab. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| UaxUrlEmailTokenizer |
Tokenisiert URLs und E-Mails als ein Token. Dieser Tokenizer wird mit Apache Lucene implementiert. |
| UniqueTokenFilter |
Filtert Token mit demselben Text wie das vorherige Token aus. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| VectorSearch |
Enthält Konfigurationsoptionen im Zusammenhang mit der Vektorsuche. |
| VectorSearchOptions |
Definiert Optionen für Vektorsuchabfragen |
| VectorSearchProfile |
Definiert eine Kombination von Konfigurationen, die mit der Vektorsuche verwendet werden sollen. |
| VectorSimilarityThreshold |
Die Ergebnisse der Vektorabfrage werden basierend auf der Vektorgleichheitsmetrik gefiltert. Beachten Sie, dass dies die kanonische Definition der Ähnlichkeitsmetrik ist, nicht die Version des Abstands. Die Schwellenwertrichtung (größer oder kleiner) wird automatisch entsprechend der vom Feld verwendeten Metrik ausgewählt. |
| VectorizableImageBinaryQuery |
Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn eine base64-codierte Binärdatei eines Bilds bereitgestellt wird, das vektorisiert werden muss. |
| VectorizableImageUrlQuery |
Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn eine URL, die einen Bildwert darstellt, der vektorisiert werden muss, bereitgestellt wird. |
| VectorizableTextQuery |
Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn ein Textwert bereitgestellt wird, der vektorisiert werden muss. |
| VectorizedQuery |
Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn ein unformatierter Vektorwert bereitgestellt wird. |
| VectorsDebugInfo | |
| VisionVectorizeSkill |
Ermöglicht es Ihnen, einen Vektoreinbettung für ein bestimmtes Bild oder eine Texteingabe mithilfe der Azure AI Services Vision Vectorize-API zu generieren. |
| WebApiParameters |
Gibt die Eigenschaften für die Verbindung mit einem benutzerdefinierten Vektorizer an. |
| WebApiSkill |
Eine Fähigkeit, die einen Web-API-Endpunkt aufrufen kann, sodass Sie ein Skillset erweitern können, indem Sie ihren benutzerdefinierten Code aufrufen. |
| WebApiVectorizer |
Gibt einen benutzerdefinierten Vektorizer zum Generieren des Vektoreinbettungs einer Abfragezeichenfolge an. Die Integration eines externen Vektorizers erfolgt mithilfe der benutzerdefinierten Web-API-Schnittstelle eines Skillsets. |
| WebKnowledgeSource |
Wissensquelle, die auf Webergebnisse abzielt. |
| WebKnowledgeSourceDomain |
Konfiguration für die Web-Wissensquellendomäne. |
| WebKnowledgeSourceDomains |
Konfiguration der Domäne für Web-Wissensquelle zulassen/blockieren. |
| WebKnowledgeSourceParameters |
Parameter für die Web-Wissensquelle. |
| WebKnowledgeSourceParams |
Gibt Laufzeitparameter für eine Webwissensquelle an |
| WordDelimiterTokenFilter |
Teilt Wörter in Unterwörter auf und führt optionale Transformationen für Unterwortgruppen aus. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
Typaliase
| AIFoundryModelCatalogName |
Definiert Werte für AIFoundryModelCatalogName. Bekannte Werte, die vom Dienst unterstützt werden
OpenAI-CLIP-Bild-Text-Einbettungen-vit-base-patch32 |
| AliasIterator |
Ein Iterator zum Auflisten der Aliase, die im Suchdienst vorhanden sind. Dadurch werden Anforderungen bei Bedarf während der Iteration vorgenommen. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
| AnalyzeTextOptions |
Optionen für die Textanalyse. |
| AutocompleteMode |
Definiert Werte für AutoCompleteMode. |
| AutocompleteOptions |
Optionen zum Abrufen von Abschlusstext für einen teilweisen SearchText. |
| AzureMachineLearningVectorizerParameters |
Gibt die Eigenschaften für die Verbindung mit einem AML-Vektorizer an. |
| AzureOpenAIModelName |
Definiert Werte für AzureOpenAIModelName. Bekannte Werte, die vom Dienst unterstützt werden
text-embedding-ada-002 |
| BaseKnowledgeRetrievalIntent | |
| BaseKnowledgeRetrievalOutputMode |
Definiert Werte für KnowledgeRetrievalOutputMode. Bekannte Werte, die vom Dienst unterstützt werden
extractiveData: Geben Sie Daten aus den Wissensquellen direkt ohne generative Änderung zurück. |
| BlobIndexerDataToExtract | |
| BlobIndexerImageAction | |
| BlobIndexerPDFTextRotationAlgorithm | |
| BlobIndexerParsingMode | |
| CharFilter |
Enthält die möglichen Fälle für CharFilter. |
| CharFilterName |
Definiert Werte für CharFilterName. Bekannte Werte, die vom Dienst unterstützt werdenhtml_strip: Ein Zeichenfilter, der versucht, HTML-Konstrukte zu entfernen. Siehe https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html. |
| ChatCompletionExtraParametersBehavior |
Definiert Werte für ChatCompletionExtraParametersBehavior. Bekannte Werte, die vom Dienst unterstützt werden
passThrough: Übergibt alle zusätzlichen Parameter direkt an das Modell. |
| ChatCompletionResponseFormatType |
Definiert Werte für ChatCompletionResponseFormatType. Bekannte Werte, die vom Dienst unterstützt werden
Text |
| CjkBigramTokenFilterScripts |
Definiert Werte für CjkBigramTokenFilterScripts. |
| CognitiveServicesAccount |
Enthält die möglichen Fälle für CognitiveServicesAccount. |
| ComplexDataType |
Definiert Werte für ComplexDataType. Mögliche Werte sind: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
| ContentUnderstandingSkillChunkingUnit |
Definiert Werte für ContentUnderstandingSkillChunkingUnit. Bekannte Werte, die vom Dienst unterstützt werdencharacters: Gibt Chunk by Character an. |
| ContentUnderstandingSkillExtractionOptions |
Definiert Werte für ContentUnderstandingSkillExtractionOptions. Bekannte Werte, die vom Dienst unterstützt werden
images: Geben Sie an, dass Bildinhalte aus dem Dokument extrahiert werden sollen. |
| CountDocumentsOptions |
Optionen zum Ausführen des Zählungsvorgangs für den Index. |
| CreateAliasOptions |
Optionen zum Erstellen eines Aliasvorgangs. |
| CreateDataSourceConnectionOptions |
Optionen zum Erstellen des Datenquellenvorgangs. |
| CreateIndexOptions |
Optionen zum Erstellen eines Indexvorgangs. |
| CreateIndexerOptions |
Optionen zum Erstellen eines Indexervorgangs. |
| CreateSkillsetOptions |
Optionen zum Erstellen von Skillset-Vorgängen. |
| CreateSynonymMapOptions |
Optionen zum Erstellen eines Synonymmap-Vorgangs. |
| CustomEntityLookupSkillLanguage | |
| DataChangeDetectionPolicy |
Enthält die möglichen Fälle für DataChangeDetectionPolicy. |
| DataDeletionDetectionPolicy |
Enthält die möglichen Fälle für DataDeletionDetectionPolicy. |
| DeleteDocumentsOptions |
Optionen für den Vorgang zum Löschen von Dokumenten. |
| DocumentIntelligenceLayoutSkillChunkingUnit |
Definiert Werte für DocumentIntelligenceLayoutSkillChunkingUnit. Bekannte Werte, die vom Dienst unterstützt werdencharacters: Gibt Chunk by Character an. |
| DocumentIntelligenceLayoutSkillExtractionOptions |
Definiert Werte für DocumentIntelligenceLayoutSkillExtractionOptions. Bekannte Werte, die vom Dienst unterstützt werden
images: Geben Sie an, dass Bildinhalte aus dem Dokument extrahiert werden sollen. |
| DocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
Definiert Werte für DocumentIntelligenceLayoutSkillMarkdownHeaderDepth. Bekannte Werte, die vom Dienst unterstützt werden
h1: Kopfebene 1. |
| DocumentIntelligenceLayoutSkillOutputFormat |
Definiert Werte für DocumentIntelligenceLayoutSkillOutputFormat. Bekannte Werte, die vom Dienst unterstützt werden
text: Geben Sie das Format der Ausgabe als Text an. |
| DocumentIntelligenceLayoutSkillOutputMode |
Definiert Werte für DocumentIntelligenceLayoutSkillOutputMode. Bekannte Werte, die vom Dienst unterstützt werdenoneToMany: Geben Sie an, dass die Ausgabe als 'oneToMany' analysiert werden soll. |
| EdgeNGramTokenFilterSide |
Definiert Werte für EdgeNGramTokenFilterSide. |
| EntityCategory | |
| EntityRecognitionSkillLanguage | |
| ExcludedODataTypes | |
| ExhaustiveKnnAlgorithmConfiguration |
Enthält Konfigurationsoptionen, die spezifisch für den vollständigen KNN-Algorithmus sind, der während der Abfrage verwendet wird, wodurch die Brute-Force-Suche im gesamten Vektorindex ausgeführt wird. |
| ExtractDocumentKey | |
| GetAliasOptions |
Optionen zum Abrufen des Aliasvorgangs. |
| GetDataSourceConnectionOptions |
Optionen zum Abrufen des Datenquellenvorgangs. |
| GetIndexOptions |
Optionen zum Abrufen des Indexvorgangs. |
| GetIndexStatisticsOptions |
Optionen zum Abrufen des Indexstatistikvorgangs. |
| GetIndexStatsSummaryResponse |
Enthält Antwortdaten für den getIndexStatsSummary-Vorgang. |
| GetIndexerOptions |
Optionen zum Abrufen des Indexervorgangs. |
| GetIndexerStatusOptions |
Optionen zum Abrufen des Indexerstatusvorgangs. |
| GetServiceStatisticsOptions |
Optionen zum Abrufen des Dienststatistikvorgangs. |
| GetSkillSetOptions |
Optionen zum Abrufen des Skillset-Vorgangs. |
| GetSynonymMapsOptions |
Optionen zum Abrufen des Synonymmaps-Vorgangs. |
| HnswAlgorithmConfiguration |
Enthält Konfigurationsoptionen, die spezifisch für den hnsw näheren Nachbaralgorithmus sind, der während der Indizierungszeit verwendet wird. |
| HybridCountAndFacetMode |
Definiert Werte für HybridCountAndFacetMode. Bekannte Werte, die vom Dienst unterstützt werden
countRetrievableResults: Bei der Berechnung von "count" und "Facetten" werden nur Dokumente eingeschlossen, die innerhalb des Abruffensters "maxTextRecallSize" abgeglichen wurden. |
| ImageAnalysisSkillLanguage | |
| ImageDetail | |
| IndexActionType |
Definiert Werte für IndexActionType. |
| IndexDocumentsAction |
Stellt eine Indexaktion dar, die auf einem Dokument ausgeführt wird. |
| IndexIterator |
Ein Iterator zum Auflisten der Indizes, die im Suchdienst vorhanden sind. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
| IndexNameIterator |
Ein Iterator zum Auflisten der Indizes, die im Suchdienst vorhanden sind. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
| IndexProjectionMode |
Definiert Werte für IndexProjectionMode. Bekannte Werte, die vom Dienst unterstützt werden
skipIndexingParentDocuments: Das Quelldokument wird vom Schreiben in den Zielindex des Indexers übersprungen. |
| IndexStatisticsSummaryIterator |
Ein Iterator für Statistikzusammenfassungen für jeden Index im Suchdienst. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
| IndexedSharePointContainerName |
Definiert Werte für IndexedSharePointContainerName. Bekannte Werte, die vom Dienst unterstützt werden
defaultSiteLibrary: Indexiere Inhalte aus der Standard-Dokumentbibliothek der Seite. |
| IndexerExecutionEnvironment | |
| IndexerExecutionStatus |
Definiert Werte für IndexerExecutionStatus. |
| IndexerExecutionStatusDetail |
Definiert Werte für IndexerExecutionStatusDetail. Bekannte Werte, die vom Dienst unterstützt werden
resetDocs: Gibt an, dass das Zurücksetzen für einen Aufruf von ResetDocs erfolgte. |
| IndexerPermissionOption |
Definiert Werte für IndexerPermissionOption. Bekannte Werte, die vom Dienst unterstützt werden
userIds: Indexer zum Erfassen von ACL-Benutzer-IDs aus der Datenquelle in den Index. |
| IndexerResyncOption |
Definiert Werte für IndexerResyncOption. Bekannte Werte, die vom Dienst unterstützt werdenBerechtigungen: Indexer zum erneuten Erfassen von vorab ausgewählten Berechtigungsdaten aus der Datenquelle in den Index. |
| IndexerStatus |
Definiert Werte für IndexerStatus. |
| IndexingMode |
Definiert Werte für IndexingMode. Bekannte Werte, die vom Dienst unterstützt werden
indexingAllDocs: Der Indexer indiziert alle Dokumente in der Datenquelle. |
| KeyPhraseExtractionSkillLanguage | |
| KnowledgeBaseActivityRecord | |
| KnowledgeBaseIterator |
Ein Iterator zur Auflistung der Wissensdatenbanken, die im Suchdienst existieren. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
| KnowledgeBaseMessageContent | |
| KnowledgeBaseModel | |
| KnowledgeBaseReference | |
| KnowledgeBaseRetrievalActivityRecord | |
| KnowledgeRetrievalOutputMode |
Definiert Werte für KnowledgeRetrievalOutputMode. Bekannte Werte, die vom Dienst unterstützt werden
extractiveData: Geben Sie Daten aus den Wissensquellen direkt ohne generative Änderung zurück. |
| KnowledgeRetrievalReasoningEffortUnion | |
| KnowledgeSource | |
| KnowledgeSourceContentExtractionMode |
Definiert Werte für KnowledgeSourceContentExtractionMode. Bekannte Werte, die vom Dienst unterstützt werden
minimal: Extrahiert nur wesentliche Metadaten, während die meisten Inhaltsverarbeitungen aufgeschoben werden. |
| KnowledgeSourceIngestionPermissionOption |
Definiert Werte für KnowledgeSourceIngestionPermissionOption. Bekannte Werte, die vom Dienst unterstützt werden
userIds: Geben Sie explizite Benutzerkennungen zusammen mit Dokumentinhalten ein. |
| KnowledgeSourceIterator |
Ein Iterator zur Auflistung der Wissensquellen, die im Suchdienst vorhanden sind. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
| KnowledgeSourceKind |
Definiert Werte für KnowledgeSourceKind. Bekannte Werte, die vom Dienst unterstützt werden
searchIndex: Eine Wissensquelle, die Daten aus einem Search Index abruft. |
| KnowledgeSourceParams | |
| KnowledgeSourceSynchronizationStatus |
Definiert Werte für KnowledgeSourceSynchronizationStatus. Bekannte Werte, die vom Dienst unterstützt werden
erschaffen: Die Wissensquelle wird bereitgestellt. |
| KnowledgeSourceVectorizer | |
| LexicalAnalyzer |
Enthält die möglichen Fälle für Analyzer. |
| LexicalAnalyzerName |
Definiert Werte für LexicalAnalyzerName. Bekannte Werte, die vom Dienst unterstützt werden
ar.microsoft: Microsoft Analyzer für Arabisch. |
| LexicalNormalizer |
Enthält die möglichen Fälle für LexicalNormalizer. |
| LexicalNormalizerName |
Definiert Werte für LexicalNormalizerName. Bekannte Werte, die vom Dienst unterstützt werden
asciifolding: Wandelt alphabetische, numerische und symbolische Unicode-Zeichen um, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") in ihre ASCII-Entsprechungen befinden, wenn solche Entsprechungen vorhanden sind. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html. |
| LexicalTokenizer |
Enthält die möglichen Fälle für Tokenizer. |
| LexicalTokenizerName |
Definiert Werte für LexicalTokenizerName. Bekannte Werte, die vom Dienst unterstützt werden
klassischen: Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente in Europa geeignet ist. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html. |
| ListAliasesOptions |
Optionen für listenaliases-Vorgang. |
| ListDataSourceConnectionsOptions |
Optionen für einen Listendatenquellenvorgang. |
| ListIndexersOptions |
Optionen für einen Listenindizierungsvorgang. |
| ListIndexesOptions |
Optionen für einen Listenindexvorgang. |
| ListSkillsetsOptions |
Optionen für einen Listen-Skillsets-Vorgang. |
| ListSynonymMapsOptions |
Optionen für einen Listen synonymMaps-Vorgang. |
| MarkdownHeaderDepth |
Definiert Werte für MarkdownHeaderDepth. Bekannte Werte, die vom Dienst unterstützt werden
h1: Gibt an, dass Kopfzeilen bis zu einer Ebene von h1 beim Gruppieren von Markdowninhalten berücksichtigt werden. |
| MarkdownParsingSubmode |
Definiert Werte für MarkdownParsingSubmode. Bekannte Werte, die vom Dienst unterstützt werden
oneToMany: Gibt an, dass jeder Abschnitt der Markdowndatei (bis zu einer bestimmten Tiefe) in einzelne Suchdokumente analysiert wird. Dies kann zu einer einzelnen Markdowndatei führen, die mehrere Suchdokumente erzeugt. Dies ist der Standarduntermodus. |
| MergeDocumentsOptions |
Optionen für den Vorgang "Dokumente zusammenführen". |
| MergeOrUploadDocumentsOptions |
Optionen für den Vorgang zum Zusammenführen oder Hochladen von Dokumenten. |
| MicrosoftStemmingTokenizerLanguage |
Definiert Werte für MicrosoftStemmingTokenizerLanguage. |
| MicrosoftTokenizerLanguage |
Definiert Werte für MicrosoftTokenizerLanguage. |
| NarrowedModel |
Beschränkt den Modelltyp so, dass nur die ausgewählten Felder enthalten sind. |
| OcrLineEnding |
Definiert Werte für OcrLineEnding. Bekannte Werte, die vom Dienst unterstützt werden
Leerzeichen: Zeilen werden durch ein einzelnes Leerzeichen getrennt. |
| OcrSkillLanguage | |
| PIIDetectionSkillMaskingMode | |
| PermissionFilter |
Definiert Werte für PermissionFilter. Bekannte Werte, die vom Dienst unterstützt werden
userIds: Das Feld stellt Benutzer-IDs dar, die zum Filtern des Dokumentzugriffs bei Abfragen verwendet werden sollen. |
| PhoneticEncoder |
Definiert Werte für PhoneticEncoder. |
| QueryAnswer |
Ein Wert, der angibt, ob Antworten als Teil der Suchantwort zurückgegeben werden sollen.
Dieser Parameter ist nur gültig, wenn der Abfragetyp "semantisch" ist. Wenn sie auf |
| QueryCaption |
Ein Wert, der angibt, ob Beschriftungen als Teil der Suchantwort zurückgegeben werden sollen. Dieser Parameter ist nur gültig, wenn der Abfragetyp "semantisch" ist. Wenn festgelegt, gibt die Abfrage Beschriftungen zurück, die aus Schlüsselabschnitten in den höchsten bewerteten Dokumenten extrahiert wurden. Wenn Beschriftungen "extraktiv" sind, ist die Hervorhebung standardmäßig aktiviert. Der Standardwert ist "none". |
| QueryDebugMode |
Definiert Werte für QueryDebugMode. Bekannte Werte, die vom Dienst unterstützt werden
disabled: Es werden keine Informationen zum Abfragedebuggen zurückgegeben. |
| QueryLanguage |
Definiert Werte für QueryLanguage. Bekannte Werte, die vom Dienst unterstützt werden
none: Abfragesprache nicht angegeben. |
| QueryRewrites |
Definiert Optionen für das Umschreiben von Abfragen. |
| QuerySpeller |
Definiert Werte für QuerySpellerType. Bekannte Werte, die vom Dienst unterstützt werden
keine: Die Rechtschreibprüfung ist nicht aktiviert. |
| QueryType |
Definiert Werte für QueryType. |
| RankingOrder |
Definiert Werte für RankingOrder. Bekannte Werte, die vom Dienst unterstützt werden
BoostedRerankerScore: Legt die Sortierreihenfolge als BoostedRerankerScore fest |
| RegexFlags | |
| ResetIndexerOptions |
Optionen zum Zurücksetzen des Indexervorgangs. |
| RunIndexerOptions |
Optionen zum Ausführen des Indexervorgangs. |
| ScoringFunction |
Enthält die möglichen Fälle für ScoringFunction. |
| ScoringFunctionAggregation |
Definiert Werte für ScoringFunctionAggregation. |
| ScoringFunctionInterpolation |
Definiert Werte für ScoringFunctionInterpolation. |
| ScoringStatistics |
Definiert Werte für ScoringStatistics. |
| SearchField |
Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. |
| SearchFieldArray |
Wenn |
| SearchFieldDataType |
Definiert Werte für SearchFieldDataType. Bekannte Werte, die vom Dienst unterstützt werden:Edm.String: Gibt an, dass ein Feld eine Zeichenfolge enthält. Edm.Int32-: Gibt an, dass ein Feld eine 32-Bit-Ganzzahl mit Vorzeichen enthält. Edm.Int64-: Gibt an, dass ein Feld eine 64-Bit-Ganzzahl enthält. Edm.Double: Gibt an, dass ein Feld eine IEEE-Gleitkommazahl mit doppelter Genauigkeit enthält. Edm.Boolean: Gibt an, dass ein Feld einen booleschen Wert (true oder false) enthält. Edm.DateTimeOffset: Gibt an, dass ein Feld einen Datums-/Uhrzeitwert enthält, einschließlich Zeitzoneninformationen. Edm.GeographyPoint: Gibt an, dass ein Feld einen geografischen Standort in Bezug auf Längengrad und Breitengrad enthält. Edm.ComplexType: Gibt an, dass ein Feld ein oder mehrere komplexe Objekte enthält, die wiederum Unterfelder anderer Typen aufweisen. Edm.Single: Gibt an, dass ein Feld eine Gleitkommazahl mit einfacher Genauigkeit enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Single). Edm.Half: Gibt an, dass ein Feld eine Gleitkommazahl mit halber Genauigkeit enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Half). Edm.Int16-: Gibt an, dass ein Feld eine 16-Bit-ganzzahlige Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Int16). Edm.SByte-: Gibt an, dass ein Feld eine 8-Bit-ganzzahl mit Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.SByte). Edm.Byte-: Gibt an, dass ein Feld eine 8-Bit-ganzzahl ohne Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Byte). |
| SearchIndexAlias |
Suchalias-Objekt. |
| SearchIndexPermissionFilterOption |
Definiert Werte für SearchIndexPermissionFilterOption. Bekannte Werte, die vom Dienst unterstützt werden
enabled |
| SearchIndexerDataIdentity |
Enthält die möglichen Fälle für SearchIndexerDataIdentity. |
| SearchIndexerDataSourceType | |
| SearchIndexerSkill |
Enthält die möglichen Fälle für Skill. |
| SearchIndexingBufferedSenderDeleteDocumentsOptions |
Optionen für SearchIndexingBufferedSenderDeleteDocuments. |
| SearchIndexingBufferedSenderFlushDocumentsOptions |
Optionen für SearchIndexingBufferedSenderFlushDocuments. |
| SearchIndexingBufferedSenderMergeDocumentsOptions |
Optionen für SearchIndexingBufferedSenderMergeDocuments. |
| SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Optionen für SearchIndexingBufferedSenderMergeOrUploadDocuments. |
| SearchIndexingBufferedSenderUploadDocumentsOptions |
Optionen für SearchIndexingBufferedSenderUploadDocuments. |
| SearchIterator |
Ein Iterator für Suchergebnisse einer Paticular-Abfrage. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
| SearchMode |
Definiert Werte für SearchMode. |
| SearchOptions |
Optionen für das Commit einer vollständigen Suchanforderung. |
| SearchPick |
Wählen Sie Felder von T mit gültigen AI Search OData-$select Pfaden tief aus. |
| SearchRequestOptions |
Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten. |
| SearchRequestQueryTypeOptions | |
| SearchResult |
Enthält ein Dokument, das von einer Suchabfrage gefunden wurde, sowie zugeordnete Metadaten. |
| SelectArray |
Wenn |
| SelectFields |
Erzeugt eine Vereinigung gültiger AI Search-OData-$select Pfade für T unter Verwendung eines Post-Order-Traversals des Feldbaums, der bei T verwurzelt ist. |
| SemanticErrorMode | |
| SemanticErrorReason | |
| SemanticFieldState |
Definiert Werte für SemanticFieldState. Bekannte Werte, die vom Dienst unterstützt werden
used: Das Feld wurde vollständig für die semantische Anreicherung verwendet. |
| SemanticQueryRewritesResultType |
Definiert Werte für SemanticQueryRewritesResultType. Bekannte Werte, die vom Dienst unterstützt werdenoriginalQueryOnly: Für diese Anforderung wurden Abfrageumschreibungen nicht erfolgreich generiert. Nur die ursprüngliche Abfrage wurde zum Abrufen der Ergebnisse verwendet. |
| SemanticSearchResultsType | |
| SentimentSkillLanguage | |
| SimilarityAlgorithm |
Enthält die möglichen Fälle für Ähnlichkeit. |
| SnowballTokenFilterLanguage |
Definiert Werte für SnowballTokenFilterLanguage. |
| SplitSkillEncoderModelName |
Definiert Werte für SplitSkillEncoderModelName. Bekannte Werte, die vom Dienst unterstützt werden
r50k_base: Bezieht sich auf ein Basismodell, das mit einem Vokabular von 50.000 Token trainiert wurde und häufig in allgemeinen Aufgaben zur Verarbeitung natürlicher Sprache verwendet wird. |
| SplitSkillLanguage | |
| SplitSkillUnit |
Definiert Werte für SplitSkillUnit. Bekannte Werte, die vom Dienst unterstützt werden
Zeichen: Die Länge wird anhand von Zeichen gemessen. |
| StemmerTokenFilterLanguage |
Definiert Werte für StemmerTokenFilterLanguage. |
| StopwordsList |
Definiert Werte für StopwordsList. |
| SuggestNarrowedModel | |
| SuggestOptions |
Optionen zum Abrufen von Vorschlägen basierend auf dem searchText. |
| SuggestResult |
Ein Ergebnis, das ein Dokument enthält, das von einer Vorschlagsabfrage gefunden wurde, sowie zugeordnete Metadaten. |
| TextSplitMode | |
| TextTranslationSkillLanguage | |
| TokenCharacterKind |
Definiert Werte für TokenCharacterKind. |
| TokenFilter |
Enthält die möglichen Fälle für TokenFilter. |
| TokenFilterName |
Definiert Werte für TokenFilterName. Bekannte Werte, die vom Dienst unterstützt werden
arabic_normalization: Ein Tokenfilter, der den arabischen Normalisierer anwendet, um die Orthografie zu normalisieren. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html. |
| UnionToIntersection | |
| UploadDocumentsOptions |
Optionen für den Vorgang zum Hochladen von Dokumenten. |
| VectorEncodingFormat |
Definiert Werte für VectorEncodingFormat. Bekannte Werte, die vom Dienst unterstützt werdenpackedBit-: Codierungsformat, das Bits darstellt, die in einen breiteren Datentyp verpackt sind. |
| VectorFilterMode | |
| VectorQuery |
Die Abfrageparameter für Vektor- und Hybridsuchabfragen. |
| VectorQueryKind | |
| VectorSearchAlgorithmConfiguration |
Enthält konfigurationsspezifische Optionen für den Algorithmus, der während der Indizierung und/oder Abfrage verwendet wird. |
| VectorSearchAlgorithmKind | |
| VectorSearchAlgorithmMetric | |
| VectorSearchCompression |
Enthält konfigurationsspezifische Optionen für die Komprimierungsmethode, die während der Indizierung oder Abfrage verwendet wird. |
| VectorSearchCompressionKind |
Definiert Werte für VectorSearchCompressionKind. Bekannte Werte, die vom Dienst unterstützt werden
skalarQuantization: Scalar Quantization, eine Art von Komprimierungsmethode. In der skalaren Quantisierung werden die ursprünglichen Vektorwerte in einen schmaleren Typ komprimiert, indem jede Komponente eines Vektors mithilfe eines reduzierten Satzes quantisierter Werte diskretiert und dargestellt wird, wodurch die Gesamtdatengröße reduziert wird. |
| VectorSearchCompressionRescoreStorageMethod |
Definiert Werte für VectorSearchCompressionRescoreStorageMethod. Bekannte Werte, die vom Dienst unterstützt werden
preserveOriginals: Mit dieser Option werden die ursprünglichen Vektoren mit voller Genauigkeit beibehalten. Wählen Sie diese Option für maximale Flexibilität und höchste Qualität komprimierter Suchergebnisse aus. Dies verbraucht mehr Speicher, ermöglicht jedoch das Erneute Korrigieren und Überstempeln. |
| VectorSearchCompressionTarget |
Definiert Werte für VectorSearchCompressionTarget. Bekannte Werte, die vom Dienst unterstützt werdenint8 |
| VectorSearchVectorizer |
Enthält Konfigurationsoptionen zum Vektorisieren von Textvektorabfragen. |
| VectorSearchVectorizerKind |
Definiert Werte für VectorSearchVectorizerKind. Bekannte Werte, die vom Dienst unterstützt werden
azureOpenAI-: Generieren Sie Einbettungen mithilfe einer Azure OpenAI-Ressource zur Abfragezeit. |
| VectorThreshold |
Der Schwellenwert, der für Vektorabfragen verwendet wird. |
| VisualFeature | |
| WebApiSkills | |
Enumerationen
Functions
| create |
Hilfsmethode zum Erstellen eines SynonymMap-Objekts. Dies ist eine einzige NodeJS-Methode. |
| odata(Template |
Maskiert einen odata-Filterausdruck, um Fehler beim Anführen von Zeichenfolgenliteralen zu vermeiden. Beispielverwendung:
Weitere Informationen zur unterstützten Syntax finden Sie unter: https://learn.microsoft.com/azure/search/search-query-odata-filter |
Variablen
| DEFAULT_BATCH_SIZE | Standard-Chargengröße |
| DEFAULT_FLUSH_WINDOW | Standardfenster-Flush-Intervall |
| DEFAULT_RETRY_COUNT | Standardanzahl der Wiederholungen. |
Details zur Funktion
createSynonymMapFromFile(string, string)
Hilfsmethode zum Erstellen eines SynonymMap-Objekts. Dies ist eine einzige NodeJS-Methode.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parameter
- name
-
string
Name der SynonymMap.
- filePath
-
string
Pfad der Datei, die die Synonyme enthält (getrennt durch neue Zeilen)
Gibt zurück
Promise<SynonymMap>
SynonymMap-Objekt
odata(TemplateStringsArray, unknown[])
Maskiert einen odata-Filterausdruck, um Fehler beim Anführen von Zeichenfolgenliteralen zu vermeiden. Beispielverwendung:
import { odata } from "@azure/search-documents";
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Weitere Informationen zur unterstützten Syntax finden Sie unter: https://learn.microsoft.com/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parameter
- strings
-
TemplateStringsArray
Array von Zeichenfolgen für den Ausdruck
- values
-
unknown[]
Array von Werten für den Ausdruck
Gibt zurück
string
Variable Details
DEFAULT_BATCH_SIZE
Standard-Chargengröße
DEFAULT_BATCH_SIZE: number
Typ
number
DEFAULT_FLUSH_WINDOW
Standardfenster-Flush-Intervall
DEFAULT_FLUSH_WINDOW: number
Typ
number
DEFAULT_RETRY_COUNT
Standardanzahl der Wiederholungen.
DEFAULT_RETRY_COUNT: number
Typ
number