@azure/search-documents package
Klassen
| AzureKeyCredential |
Statische Schlüsselbasierte Anmeldeinformationen, die das Aktualisieren des zugrunde liegenden Schlüsselwerts unterstützen. |
| GeographyPoint |
Stellt einen geografischen Punkt in globalen Koordinaten dar. |
| IndexDocumentsBatch |
Klasse, die zum Ausführen von Batchvorgängen mit mehreren Dokumenten im Index verwendet wird. |
| KnowledgeRetrievalClient |
Die Klasse wird verwendet, um Operationen gegen eine Wissensdatenbank auszuführen. |
| SearchClient |
Klasse, die zum Ausführen von Vorgängen für einen Suchindex verwendet wird, einschließlich Abfragen von Dokumenten im Index sowie Hinzufügen, Aktualisieren und Entfernen von Dokumenten. |
| SearchIndexClient |
Klasse zum Ausführen von Vorgängen zum Verwalten (Erstellen, Aktualisieren, Auflisten/Löschen) & Synonymmaps. |
| SearchIndexerClient |
Klasse zum Ausführen von Vorgängen zum Verwalten (Erstellen, Aktualisieren, Listen/Löschen) von Indexern, Datenquellen & Skillsets. |
| SearchIndexingBufferedSender |
Klasse, die zum Ausführen von gepufferten Vorgängen für einen Suchindex verwendet wird, einschließlich Hinzufügen, Aktualisieren und Entfernen dieser Vorgänge. |
Schnittstellen
| AIServices |
Parameter für KI-Dienste. |
| AIServicesAccountIdentity |
Das Multi-Region-Konto einer Azure-KI-Service-Ressource, die an ein Skillset gebunden ist. |
| AIServicesAccountKey |
Der Kontoschlüssel einer Azure-KI-Service-Ressource, die mit einem Skillset verbunden ist und mit der Subdomäne der Ressource verwendet werden soll. |
| AnalyzeRequest |
Gibt einige Text- und Analysekomponenten an, die zum Aufteilen dieses Texts in Token verwendet werden. |
| AnalyzeResult |
Das Ergebnis des Tests eines Analyzers auf Text. |
| AnalyzedTokenInfo |
Informationen zu einem token, das von einem Analyzer zurückgegeben wird. |
| AsciiFoldingTokenFilter |
Konvertiert alphabetische, numerische und symbolische Unicode-Zeichen, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") befinden, in ihre ASCII-Entsprechungen, wenn solche Entsprechungen vorhanden sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| AutocompleteItem |
Das Ergebnis von AutoVervollständigen-Anforderungen. |
| AutocompleteRequest |
Parameter für fuzzy matching, and other autocomplete query behaviors. |
| AutocompleteResult |
Das Ergebnis der AutoVervollständigen-Abfrage. |
| AzureActiveDirectoryApplicationCredentials |
Anmeldeinformationen einer registrierten Anwendung, die für Ihren Suchdienst erstellt wurde und für authentifizierten Zugriff auf die im Azure Key Vault gespeicherten Verschlüsselungsschlüssel verwendet wird. |
| AzureBlobKnowledgeSource |
Konfiguration für die Azure Blob Storage-Wissensquelle. |
| AzureBlobKnowledgeSourceParameters |
Parameter für die Azure Blob Storage-Wissensquelle. |
| AzureBlobKnowledgeSourceParams |
Gibt Laufzeitparameter für eine Azure Blob-Wissensquelle an |
| AzureMachineLearningVectorizer |
Spezifiziert einen Azure Machine Learning-Endpunkt, der über den Azure AI Foundry Model Catalog bereitgestellt wird, um die Vektor-Einbettung einer Abfragezeichenkette zu erzeugen. |
| AzureOpenAIEmbeddingSkill |
Ermöglicht es Ihnen, einen Vektoreinbettung für eine bestimmte Texteingabe mithilfe der Azure OpenAI-Ressource zu generieren. |
| AzureOpenAIParameters |
Gibt die Parameter für die Verbindung mit der Azure OpenAI-Ressource an. |
| AzureOpenAIVectorizer |
Enthält die Parameter, die für die Verwendung eines Azure Open AI-Diensts für die Vektorisierung zur Abfragezeit spezifisch sind. |
| BM25Similarity |
Bewertungsfunktion basierend auf dem Okapi BM25 Ähnlichkeitsalgorithmus. BM25 ist ein TF-IDF-like-Algorithmus, der die Längennormalisierung (gesteuert durch den Parameter "b") sowie die Begriffsfrequenzsättigung (gesteuert durch den Parameter "k1") enthält. |
| BaseAzureMachineLearningVectorizerParameters |
Gibt die Eigenschaften an, die zwischen allen AML-Vektorizer-Authentifizierungstypen gemeinsam sind. |
| BaseCharFilter |
Basistyp für Zeichenfilter. |
| BaseCognitiveServicesAccount |
Basistyp für die Beschreibung einer Azure AI-Dienstressource, die einem Skillset zugeordnet ist. |
| BaseDataChangeDetectionPolicy |
Basistyp für Datenänderungserkennungsrichtlinien. |
| BaseDataDeletionDetectionPolicy |
Basistyp für Erkennungsrichtlinien für die Datenlöschung. |
| BaseKnowledgeBaseActivityRecord |
Basistyp für Aktivitätsdatensätze. Verfolgt Ausführungsdetails, Timing und Fehler für Wissensbasisoperationen. |
| BaseKnowledgeBaseMessageContent |
Gibt den Typ des Nachrichteninhalts an. |
| BaseKnowledgeBaseModel |
Gibt die Verbindungsparameter an, die das Modell für die Abfrageplanung verwenden soll. |
| BaseKnowledgeBaseReference |
Basistyp für Referenzen. |
| BaseKnowledgeRetrievalReasoningEffort |
Basistyp für den Schlussfolgerungsaufwand. |
| BaseKnowledgeSource |
Stellt eine Wissensquellendefinition dar. |
| BaseKnowledgeSourceParams |
Basistyp für Wissensquellen-Laufzeitparameter. |
| BaseKnowledgeSourceVectorizer |
Spezifiziert die Vektorisierungsmethode, die für das Knowledge Source Embedding-Modell verwendet werden soll. |
| BaseLexicalAnalyzer |
Basistyp für Analysegeräte. |
| BaseLexicalNormalizer |
Basistyp für Normalisierer. |
| BaseLexicalTokenizer |
Basistyp für Tokenizer. |
| BaseScoringFunction |
Basistyp für Funktionen, die Dokumentergebnisse während der Rangfolge ändern können. |
| BaseSearchIndexerDataIdentity |
Abstrakter Basistyp für Datenidentitäten. |
| BaseSearchIndexerSkill |
Basistyp für Fähigkeiten. |
| BaseSearchRequestOptions |
Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten. |
| BaseSimilarityAlgorithm |
Basistyp für Ähnlichkeitsalgorithmen. Ähnlichkeitsalgorithmen werden verwendet, um Bewertungen zu berechnen, die Abfragen an Dokumente binden. Je höher die Bewertung ist, desto relevanter ist das Dokument für diese bestimmte Abfrage. Diese Bewertungen werden verwendet, um die Suchergebnisse zu bewerten. |
| BaseTokenFilter |
Basistyp für Tokenfilter. |
| BaseVectorQuery |
Die Abfrageparameter für Vektor- und Hybridsuchabfragen. |
| BaseVectorSearchAlgorithmConfiguration |
Enthält konfigurationsspezifische Optionen für den Algorithmus, der während der Indizierung und/oder Abfrage verwendet wird. |
| BaseVectorSearchCompression |
Enthält konfigurationsspezifische Optionen für die Komprimierungsmethode, die während der Indizierung oder Abfrage verwendet wird. |
| BaseVectorSearchVectorizer |
Enthält spezifische Details für eine Vektorisierungsmethode, die während der Abfragezeit verwendet werden soll. |
| BinaryQuantizationCompression |
Enthält konfigurationsspezifische Konfigurationsoptionen für die Komprimierungsmethode der binären Quantisierung, die während der Indizierung und Abfrage verwendet wird. |
| ChatCompletionResponseFormat |
Bestimmt, wie die Antwort des Sprachmodells serialisiert werden soll. Der Standardwert ist 'text'. |
| ChatCompletionResponseFormatJsonSchemaProperties |
Eigenschaften des JSON-Schema-Antwortformats. |
| ChatCompletionSchema |
Objekt, das das benutzerdefinierte Schema definiert, das das Modell zum Strukturieren seiner Ausgabe verwendet. |
| ChatCompletionSkill |
Eine Fähigkeit, die ein Sprachmodell über Azure AI Foundry 's Chat Completions-Endpunkt aufruft. |
| CjkBigramTokenFilter |
Bildet Bigrams von CJK-Ausdrücken, die aus dem Standardtokenizer generiert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| ClassicSimilarity |
Legacy-Ähnlichkeitsalgorithmus, der die Lucene TFIDFSimilarity-Implementierung von TF-IDF verwendet. Diese Variation von TF-IDF führt die Normalisierung statischer Dokumente sowie die Koordinierung von Faktoren ein, die Dokumente benachteiligen, die nur teilweise mit den durchsuchten Abfragen übereinstimmen. |
| ClassicTokenizer |
Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente mit europäischer Sprache geeignet ist. Dieser Tokenizer wird mit Apache Lucene implementiert. |
| CognitiveServicesAccountKey |
Der Multi-Region-Kontoschlüssel einer Azure AI-Dienstressource, die einem Skillset zugeordnet ist. |
| CommonGramTokenFilter |
Erstellen Sie Bigrams für häufig vorkommende Ausdrücke während der Indizierung. Einzelne Begriffe sind auch weiterhin indiziert, wobei Bigrams überlagert sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| CommonModelParameters |
Allgemeine Sprachmodellparameter für Chatvervollständigungen. Wenn nicht angegeben, werden Standardwerte verwendet. |
| CompletedSynchronizationState |
Stellt den abgeschlossenen Status der letzten Synchronisierung dar. |
| ComplexField |
Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. |
| ConditionalSkill |
Eine Fähigkeit, die Szenarien ermöglicht, die einen booleschen Vorgang erfordern, um die Daten zu bestimmen, die einer Ausgabe zugewiesen werden sollen. |
| ContentUnderstandingSkill |
Eine Fähigkeit, die Azure AI Content Understanding nutzt, um strukturierte Erkenntnisse aus Dokumenten zu verarbeiten und zu extrahieren, was bereicherte, durchsuchbare Inhalte für eine verbesserte Dokumentenindexierung und -abruf ermöglicht. |
| ContentUnderstandingSkillChunkingProperties |
Steuert die Kardinalität für das Segmentieren des Inhalts. |
| CorsOptions |
Definiert Optionen zum Steuern der cross-Origin Resource Sharing (CORS) für einen Index. |
| CreateKnowledgeBaseOptions | |
| CreateKnowledgeSourceOptions | |
| CreateOrUpdateAliasOptions |
Optionen zum Erstellen oder Aktualisieren des Aliasvorgangs. |
| CreateOrUpdateIndexOptions |
Optionen zum Erstellen/Aktualisieren des Indexvorgangs. |
| CreateOrUpdateKnowledgeBaseOptions | |
| CreateOrUpdateKnowledgeSourceOptions | |
| CreateOrUpdateSkillsetOptions |
Optionen zum Erstellen/Aktualisieren des Skillset-Vorgangs. |
| CreateOrUpdateSynonymMapOptions |
Optionen zum Erstellen/Aktualisieren des Synonymmap-Vorgangs. |
| CreateorUpdateDataSourceConnectionOptions |
Optionen zum Erstellen/Aktualisieren des Datenquellenvorgangs. |
| CreateorUpdateIndexerOptions |
Optionen zum Erstellen/Aktualisieren des Indexervorgangs. |
| CustomAnalyzer |
Ermöglicht es Ihnen, den Prozess der Konvertierung von Text in in indizierbare/durchsuchbare Token zu übernehmen. Es ist eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für das Aufteilen von Text in Token verantwortlich, und die Filter zum Ändern von Token, die vom Tokenizer ausgegeben werden. |
| CustomEntity |
Ein Objekt, das Informationen zu den gefundenen Übereinstimmungen und verwandten Metadaten enthält. |
| CustomEntityAlias |
Ein komplexes Objekt, das verwendet werden kann, um alternative Schreibweisen oder Synonyme für den Namen der Stammentität anzugeben. |
| CustomEntityLookupSkill |
Eine Fähigkeit sucht nach Text aus einer benutzerdefinierten, benutzerdefinierten Liste von Wörtern und Ausdrücken. |
| CustomLexicalNormalizer |
Ermöglicht es Ihnen, die Normalisierung für filterbare, sortierbare und facetable-Felder zu konfigurieren, die standardmäßig mit striktem Abgleich funktionieren. Dies ist eine benutzerdefinierte Konfiguration, die aus mindestens einem Filter besteht, wodurch das gespeicherte Token geändert wird. |
| DefaultCognitiveServicesAccount |
Ein leeres Objekt, das die standardmäßige Azure AI-Dienstressource für ein Skillset darstellt. |
| DeleteAliasOptions |
Optionen zum Löschen des Aliasvorgangs. |
| DeleteDataSourceConnectionOptions |
Optionen zum Löschen des Datenquellenvorgangs. |
| DeleteIndexOptions |
Optionen für den Löschindexvorgang. |
| DeleteIndexerOptions |
Optionen zum Löschen des Indexervorgangs. |
| DeleteKnowledgeBaseOptions | |
| DeleteKnowledgeSourceOptions | |
| DeleteSkillsetOptions |
Optionen zum Löschen von Skillset-Operaion. |
| DeleteSynonymMapOptions |
Optionen zum Löschen des Synonymmap-Vorgangs. |
| DictionaryDecompounderTokenFilter |
Dekompiliert zusammengesetzte Wörter in vielen germanischen Sprachen. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| DistanceScoringFunction |
Definiert eine Funktion, die Bewertungen basierend auf der Entfernung von einem geografischen Standort erhöht. |
| DistanceScoringParameters |
Stellt Parameterwerte für eine Entfernungsbewertungsfunktion bereit. |
| DocumentDebugInfo |
Enthält Debuginformationen, die verwendet werden können, um Ihre Suchergebnisse weiter zu untersuchen. |
| DocumentExtractionSkill |
Eine Fähigkeit, die Inhalte aus einer Datei in der Anreicherungspipeline extrahiert. |
| DocumentIntelligenceLayoutSkill |
Eine Fähigkeit, die Inhalte und Layoutinformationen (als Markdown) über Azure AI Services aus Dateien innerhalb der Anreicherungspipeline extrahiert. |
| DocumentIntelligenceLayoutSkillChunkingProperties |
Steuert die Kardinalität für das Segmentieren des Inhalts. |
| EdgeNGramTokenFilter |
Generiert n Gramm der angegebenen Größe(n) beginnend von vorne oder hinten eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| EdgeNGramTokenizer |
Tokenisiert die Eingabe von einem Rand in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mit Apache Lucene implementiert. |
| ElisionTokenFilter |
Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| EntityLinkingSkill |
Mithilfe der Textanalyse-API werden verknüpfte Entitäten aus Text extrahiert. |
| EntityRecognitionSkill |
Erkennung der Textanalyseentität. |
| EntityRecognitionSkillV3 |
Mithilfe der Textanalyse-API werden Entitäten unterschiedlicher Typen aus Text extrahiert. |
| ExhaustiveKnnParameters |
Enthält die für den vollständigen KNN-Algorithmus spezifischen Parameter. |
| ExtractiveQueryAnswer |
Extrahiert Antwortkandidaten aus dem Inhalt der zurückgegebenen Dokumente als Antwort auf eine Abfrage, die als Frage in natürlicher Sprache ausgedrückt wird. |
| ExtractiveQueryCaption |
Extrahiert Beschriftungen aus den übereinstimmenden Dokumenten, die Passagen enthalten, die für die Suchabfrage relevant sind. |
| FacetResult |
Ein einzelner Bucket eines Facetabfrageergebnisses. Meldet die Anzahl der Dokumente mit einem Feldwert, der in einen bestimmten Bereich fällt oder einen bestimmten Wert oder ein bestimmtes Intervall aufweist. |
| FieldMapping |
Definiert eine Zuordnung zwischen einem Feld in einer Datenquelle und einem Zielfeld in einem Index. |
| FieldMappingFunction |
Stellt eine Funktion dar, die einen Wert aus einer Datenquelle vor der Indizierung transformiert. |
| FreshnessScoringFunction |
Definiert eine Funktion, die Bewertungen basierend auf dem Wert eines Datum-Uhrzeit-Felds erhöht. |
| FreshnessScoringParameters |
Stellt Parameterwerte für eine Aktualitätsbewertungsfunktion bereit. |
| GenerativeQueryRewrites |
Generieren Sie alternative Abfragebegriffe, um den Rückruf einer Suchanforderung zu erhöhen. |
| GetDocumentOptions |
Optionen zum Abrufen eines einzelnen Dokuments. |
| GetKnowledgeBaseOptions | |
| GetKnowledgeSourceOptions | |
| GetKnowledgeSourceStatusOptions | |
| HighWaterMarkChangeDetectionPolicy |
Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen basierend auf dem Wert einer Wasserzeichenspalte erfasst. |
| HnswParameters |
Enthält die für den Hnsw-Algorithmus spezifischen Parameter. |
| ImageAnalysisSkill |
Eine Fähigkeit, die Bilddateien analysiert. Es extrahiert eine vielzahl von visuellen Features basierend auf dem Bildinhalt. |
| IndexDocumentsClient |
Client für Indexdokumente |
| IndexDocumentsOptions |
Optionen für den Indexbatchvorgang ändern. |
| IndexDocumentsResult |
Antwort, die den Status der Vorgänge für alle Dokumente in der Indizierungsanforderung enthält. |
| IndexedOneLakeKnowledgeSource |
Konfiguration für die OneLake-Wissensquelle. |
| IndexedOneLakeKnowledgeSourceParameters |
Parameter für die OneLake-Wissensquelle. |
| IndexedOneLakeKnowledgeSourceParams |
Gibt Laufzeitparameter für eine indizierte OneLake-Wissensquelle an. |
| IndexerExecutionResult |
Stellt das Ergebnis einer einzelnen Indexerausführung dar. |
| IndexingParameters |
Stellt Parameter für die Indizierungsausführung dar. |
| IndexingParametersConfiguration |
Ein Wörterbuch mit indexerspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen. |
| IndexingResult |
Status eines Indizierungsvorgangs für ein einzelnes Dokument. |
| IndexingSchedule |
Stellt einen Zeitplan für die Indizierungsausführung dar. |
| InputFieldMappingEntry |
Eingabefeldzuordnung für eine Fähigkeit. |
| KeepTokenFilter |
Ein Tokenfilter, der Token nur mit Text in einer angegebenen Liste von Wörtern speichert. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| KeyAuthAzureMachineLearningVectorizerParameters |
Gibt die Eigenschaften für die Verbindung mit einem AML-Vektorizer mit einem Authentifizierungsschlüssel an. |
| KeyPhraseExtractionSkill |
Eine Fähigkeit, die Textanalyse für die Extraktion von Schlüsselausdrücken verwendet. |
| KeywordMarkerTokenFilter |
Markiert Ausdrücke als Schlüsselwörter. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| KeywordTokenizer |
Gibt die gesamte Eingabe als einzelnes Token aus. Dieser Tokenizer wird mit Apache Lucene implementiert. |
| KnowledgeBase | |
| KnowledgeBaseAgenticReasoningActivityRecord |
Stellt einen Aktivitätsdatensatz für agentisches Denken dar. |
| KnowledgeBaseAzureBlobReference |
Stellt eine Azure Blob Storage-Dokumentreferenz dar. |
| KnowledgeBaseAzureOpenAIModel |
Gibt die Azure OpenAI-Ressource an, die für die Abfrageplanung verwendet wird. |
| KnowledgeBaseErrorAdditionalInfo |
Der Ressourcenverwaltungsfehler zusätzliche Informationen. |
| KnowledgeBaseErrorDetail |
Die Fehlerdetails. |
| KnowledgeBaseIndexedOneLakeReference |
Stellt eine indexierte OneLake-Dokumentreferenz dar. |
| KnowledgeBaseMessage |
Das Nachrichtenstilobjekt in natürlicher Sprache. |
| KnowledgeBaseMessageImageContent |
Typ der Bildnachricht. |
| KnowledgeBaseMessageImageContentImage |
Bildinhalt. |
| KnowledgeBaseMessageTextContent |
Art der Textnachricht. |
| KnowledgeBaseModelWebSummarizationActivityRecord |
Repräsentiert einen LLM-Webzusammenfassungsaktivitätseintrag. |
| KnowledgeBaseRetrievalRequest |
Der Eingabevertrag für den Abrufauftrag. |
| KnowledgeBaseRetrievalResponse |
Der Ausgabevertrag für die Abrufantwort. |
| KnowledgeBaseSearchIndexReference |
Stellt eine Azure Search-Dokumentreferenz dar. |
| KnowledgeBaseWebReference |
Stellt einen Verweis auf ein Webdokument dar. |
| KnowledgeRetrievalClientOptions |
Clientoptionen, die zum Konfigurieren von API-Anforderungen für die kognitive Suche verwendet werden. |
| KnowledgeRetrievalIntent |
Eine beabsichtigte Abfrage, die ohne Modellabfrageplanung ausgeführt werden soll. |
| KnowledgeRetrievalMinimalReasoningEffort |
Führen Sie den Wissensabruf mit minimalem Argumentationsaufwand durch. |
| KnowledgeRetrievalSemanticIntent |
Eine semantische Abfrageabsicht. |
| KnowledgeSourceAzureOpenAIVectorizer |
Gibt die Azure OpenAI-Ressource an, die zum Vektorisieren einer Abfragezeichenfolge verwendet wird. |
| KnowledgeSourceIngestionParameters |
Konsolidiert alle allgemeinen Erfassungseinstellungen für Wissensquellen. |
| KnowledgeSourceReference |
Verweise auf eine Wissensquelle. |
| KnowledgeSourceStatistics |
Statistische Informationen über den Verlauf der Synchronisierung von Wissensquellen. |
| KnowledgeSourceStatus |
Stellt den Status und den Synchronisierungsverlauf einer Wissensquelle dar. |
| KnowledgeSourceSynchronizationError |
Repräsentiert einen Dokumenten-Indexierungsfehler, der während eines Wissensquellen-Synchronisationslaufs aufgetreten ist. |
| LanguageDetectionSkill |
Eine Fähigkeit, die sprache des Eingabetexts zu erkennen und meldet einen einzigen Sprachcode für jedes Dokument, das auf der Anforderung übermittelt wurde. Der Sprachcode wird mit einer Bewertung gekoppelt, die die Konfidenz der Analyse angibt. |
| LengthTokenFilter |
Entfernt Wörter, die zu lang oder zu kurz sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| LimitTokenFilter |
Beschränkt die Anzahl der Token während der Indizierung. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| ListKnowledgeBasesOptions | |
| ListKnowledgeSourcesOptions | |
| ListSearchResultsPageSettings |
Argumente zum Abrufen der nächsten Seite der Suchergebnisse. |
| LuceneStandardAnalyzer |
Standard Apache Lucene Analyzer; Zusammengesetzt aus dem Standardmäßigen Tokenizer, Kleinbuchstabenfilter und Stoppfilter. |
| LuceneStandardTokenizer |
Umbricht Text nach den Unicode-Textsegmentierungsregeln. Dieser Tokenizer wird mit Apache Lucene implementiert. |
| MagnitudeScoringFunction |
Definiert eine Funktion, die Bewertungen basierend auf der Größe eines numerischen Felds erhöht. |
| MagnitudeScoringParameters |
Stellt Parameterwerte für eine Bewertungsfunktion der Größe bereit. |
| MappingCharFilter |
Ein Zeichenfilter, der Zuordnungen anwendet, die mit der Zuordnungsoption definiert sind. Der Abgleich ist gierig (längster Musterabgleich bei einem bestimmten Punkt gewinnt). Ersetzung darf die leere Zeichenfolge sein. Dieser Zeichenfilter wird mit Apache Lucene implementiert. |
| MergeSkill |
Eine Fähigkeit zum Zusammenführen von zwei oder mehr Zeichenfolgen in einer einzigen einheitlichen Zeichenfolge mit einem optionalen benutzerdefinierten Trennzeichen, das jeden Komponententeil trennt. |
| MicrosoftLanguageStemmingTokenizer |
Dividiert Text mithilfe von sprachspezifischen Regeln und reduziert Wörter auf ihre Basisformulare. |
| MicrosoftLanguageTokenizer |
Dividiert Text mithilfe sprachspezifischer Regeln. |
| NGramTokenFilter |
Generiert n Gramm der angegebenen Größe(n). Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| NGramTokenizer |
Tokenisiert die Eingabe in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mit Apache Lucene implementiert. |
| NativeBlobSoftDeleteDeletionDetectionPolicy |
Definiert eine Datenlöscherkennungsrichtlinie, die das systemeigene Feature für das vorläufige Löschen von Azure Blob Storage für die Löscherkennung verwendet. |
| NoAuthAzureMachineLearningVectorizerParameters |
Gibt die Eigenschaften für die Verbindung mit einem AML-Vektorizer ohne Authentifizierung an. |
| OcrSkill |
Eine Fähigkeit, die Text aus Bilddateien extrahiert. |
| OutputFieldMappingEntry |
Ausgabefeldzuordnung für eine Fähigkeit. |
| PIIDetectionSkill |
Mithilfe der Textanalyse-API werden persönliche Informationen aus einem Eingabetext extrahiert und sie maskieren können. |
| PageSettings |
Optionen für die byPage-Methode |
| PagedAsyncIterableIterator |
Eine Schnittstelle, die eine asynchrone iterierbare Iteration sowohl zum Abschluss als auch nach Seite ermöglicht. |
| PathHierarchyTokenizer |
Tokenizer für pfadähnliche Hierarchien. Dieser Tokenizer wird mit Apache Lucene implementiert. |
| PatternAnalyzer |
Trennt Text flexibel in Ausdrücke über ein Muster mit regulären Ausdrücken. Dieser Analyzer wird mit Apache Lucene implementiert. |
| PatternCaptureTokenFilter |
Verwendet Java regexes, um mehrere Token auszugeben – eine für jede Aufnahmegruppe in einem oder mehreren Mustern. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| PatternReplaceCharFilter |
Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Es verwendet einen regulären Ausdruck, um Zeichenabfolgen zu identifizieren, die beibehalten werden sollen, und ein Ersetzungsmuster, um zu ersetzende Zeichen zu identifizieren. Wenn Sie beispielsweise den Eingabetext "aa bb aa bb", das Muster "(aa)\s+(bb)" und den Ersatz "$1#$2" erhalten haben, lautet das Ergebnis "aa#bb aa#bb aa#bb". Dieser Zeichenfilter wird mit Apache Lucene implementiert. |
| PatternReplaceTokenFilter |
Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Es verwendet einen regulären Ausdruck, um Zeichenabfolgen zu identifizieren, die beibehalten werden sollen, und ein Ersetzungsmuster, um zu ersetzende Zeichen zu identifizieren. Wenn Sie beispielsweise den Eingabetext "aa bb aa bb", das Muster "(aa)\s+(bb)" und den Ersatz "$1#$2" erhalten haben, lautet das Ergebnis "aa#bb aa#bb aa#bb". Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| PatternTokenizer |
Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Dieser Tokenizer wird mit Apache Lucene implementiert. |
| PhoneticTokenFilter |
Erstellen Sie Token für phonetische Übereinstimmungen. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| QueryAnswerResult |
Eine Antwort ist eine Textpassage, die aus dem Inhalt der relevantesten Dokumente extrahiert wurde, die der Abfrage entsprechen. Antworten werden aus den wichtigsten Suchergebnissen extrahiert. Antwortkandidaten werden bewertet, und die wichtigsten Antworten werden ausgewählt. |
| QueryCaptionResult |
Beschriftungen sind die repräsentativsten Passagen aus dem Dokument relativ zur Suchabfrage.
Sie werden häufig als Dokumentzusammenfassung verwendet. Beschriftungen werden nur für Abfragen vom Typ |
| QueryResultDocumentSemanticField |
Beschreibung von Feldern, die an den semantischen Anreicherungsprozess gesendet wurden, sowie deren Verwendung |
| QueryResultDocumentSubscores |
Die Aufschlüsselung von Teilergebnissen zwischen den Text- und Vektorabfragekomponenten der Suchabfrage für dieses Dokument. Jede Vektorabfrage wird als separates Objekt in derselben Reihenfolge angezeigt, in der sie empfangen wurden. |
| RescoringOptions |
Enthält die Optionen für die Korrektur. |
| ResourceCounter |
Stellt die Verwendung und das Kontingent einer Ressource dar. |
| RetrieveOptions | |
| ScalarQuantizationCompression |
Enthält Konfigurationsoptionen, die spezifisch für die skalare Quantisierungskomprimierungsmethode sind, die während der Indizierung und Abfrage verwendet wird. |
| ScalarQuantizationParameters |
Enthält die parameter, die für die Skalar quantization spezifisch sind. |
| ScoringProfile |
Definiert Parameter für einen Suchindex, der die Bewertung in Suchabfragen beeinflusst. |
| SearchAlias |
Stellt einen Indexalias dar, der eine Zuordnung vom Aliasnamen zu einem Index beschreibt. Der Aliasname kann anstelle des Indexnamens für unterstützte Vorgänge verwendet werden. |
| SearchClientOptions |
Clientoptionen, die zum Konfigurieren von AI Search API-Anforderungen verwendet werden. |
| SearchDocumentsPageResult |
Antwort, die Suchergebnisse aus einem Index enthält. |
| SearchDocumentsResult |
Antwort, die Suchergebnisse aus einem Index enthält. |
| SearchDocumentsResultBase |
Antwort, die Suchergebnisse aus einem Index enthält. |
| SearchIndex |
Stellt eine Suchindexdefinition dar, die die Felder und das Suchverhalten eines Indexes beschreibt. |
| SearchIndexClientOptions |
Clientoptionen, die zum Konfigurieren von AI Search API-Anforderungen verwendet werden. |
| SearchIndexFieldReference |
Feldreferenz für einen Suchindex. |
| SearchIndexKnowledgeSource |
Wissensquelle, die auf einen Suchindex abzielt. |
| SearchIndexKnowledgeSourceParameters |
Parameter für die Wissensquelle für den Suchindex. |
| SearchIndexKnowledgeSourceParams |
Gibt Laufzeitparameter für eine Wissensquelle für Suchindex an |
| SearchIndexStatistics |
Statistiken für einen bestimmten Index. Statistiken werden regelmäßig gesammelt und sind nicht garantiert immer up-to-datum. |
| SearchIndexer |
Stellt einen Indexer dar. |
| SearchIndexerClientOptions |
Clientoptionen, die zum Konfigurieren von AI Search API-Anforderungen verwendet werden. |
| SearchIndexerDataContainer |
Stellt Informationen zur Entität (z. B. Azure SQL-Tabelle oder CosmosDB-Auflistung) dar, die indiziert wird. |
| SearchIndexerDataNoneIdentity |
Löscht die Identitätseigenschaft einer Datenquelle. |
| SearchIndexerDataSourceConnection |
Stellt eine Datenquellendefinition dar, die zum Konfigurieren eines Indexers verwendet werden kann. |
| SearchIndexerDataUserAssignedIdentity |
Gibt die Identität für eine zu verwendende Datenquelle an. |
| SearchIndexerError |
Stellt einen Indizierungsfehler auf Element- oder Dokumentebene dar. |
| SearchIndexerIndexProjection |
Definition zusätzlicher Projektionen für sekundäre Suchindizes. |
| SearchIndexerIndexProjectionParameters |
Ein Wörterbuch mit indexprojektionsspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen. |
| SearchIndexerIndexProjectionSelector |
Beschreibung, welche Daten im angegebenen Suchindex gespeichert werden sollen. |
| SearchIndexerKnowledgeStore |
Definition zusätzlicher Projektionen für Azure Blob, Tabelle oder Dateien mit erweiterten Daten. |
| SearchIndexerKnowledgeStoreBlobProjectionSelector |
Abstrakte Klasse zum Freigeben von Eigenschaften zwischen betonen Selektoren. |
| SearchIndexerKnowledgeStoreFileProjectionSelector |
Projektionsdefinition für die Daten, die in Azure Files gespeichert werden sollen. |
| SearchIndexerKnowledgeStoreObjectProjectionSelector |
Projektionsdefinition für die Daten, die in Azure Blob gespeichert werden sollen. |
| SearchIndexerKnowledgeStoreParameters |
Ein Wörterbuch mit Wissensspeicher-spezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen. |
| SearchIndexerKnowledgeStoreProjection |
Containerobjekt für verschiedene Projektionsmarkierer. |
| SearchIndexerKnowledgeStoreProjectionSelector |
Abstrakte Klasse zum Freigeben von Eigenschaften zwischen betonen Selektoren. |
| SearchIndexerKnowledgeStoreTableProjectionSelector |
Beschreibung, welche Daten in Azure-Tabellen gespeichert werden sollen. |
| SearchIndexerLimits |
Repräsentiert die Grenzwerte, die auf einen Indexer angewendet werden können. |
| SearchIndexerSkillset |
Eine Liste der Fähigkeiten. |
| SearchIndexerStatus |
Stellt den aktuellen Status und den Ausführungsverlauf eines Indexers dar. |
| SearchIndexerWarning |
Stellt eine Warnung auf Elementebene dar. |
| SearchIndexingBufferedSenderOptions |
Optionen für SearchIndexingBufferedSender. |
| SearchResourceEncryptionKey |
Ein vom Kunden verwalteter Verschlüsselungsschlüssel im Azure Key Vault. Schlüssel, die Sie erstellen und verwalten, können zum Verschlüsseln oder Entschlüsseln von ruhenden Daten in Azure KI-Suche verwendet werden, z. B. Indizes und Synonymzuordnungen. |
| SearchServiceStatistics |
Antwort von einer Anforderung zum Abrufen von Dienststatistiken. Wenn dies erfolgreich ist, enthält es Leistungsindikatoren und Grenzwerte auf Serviceebene. |
| SemanticConfiguration |
Definiert eine bestimmte Konfiguration, die im Kontext der semantischen Funktionen verwendet werden soll. |
| SemanticDebugInfo |
Debugoptionen für semantische Suchabfragen. |
| SemanticField |
Ein Feld, das als Teil der semantischen Konfiguration verwendet wird. |
| SemanticPrioritizedFields |
Beschreibt die Felder "Titel", "Inhalt" und "Schlüsselwörter", die für semantische Rangfolge, Beschriftungen, Hervorhebungen und Antworten verwendet werden sollen. |
| SemanticSearch |
Definiert Parameter für einen Suchindex, der die semantischen Funktionen beeinflusst. |
| SemanticSearchOptions |
Definiert Optionen für semantische Suchabfragen |
| SentimentSkill |
Textanalyse positive negative Stimmungsanalyse, bewertet als Gleitkommawert in einem Bereich von Null bis 1. |
| SentimentSkillV3 |
Mithilfe der Textanalyse-API werden unstrukturierter Text ausgewertet und für jeden Datensatz Stimmungsbezeichnungen (z. B. "negativ", "neutral" und "positiv") basierend auf dem höchsten Konfidenzwert bereitgestellt, der vom Dienst auf Satz- und Dokumentebene gefunden wird. |
| ServiceCounters |
Stellt Ressourcenzähler und Kontingente auf Dienstebene dar. |
| ServiceLimits |
Stellt verschiedene Grenzwerte für Dienstebene dar. |
| ShaperSkill |
Eine Fähigkeit zum Umgestalten der Ausgaben. Er erstellt einen komplexen Typ zur Unterstützung zusammengesetzter Felder (auch als mehrteilige Felder bezeichnet). |
| ShingleTokenFilter |
Erstellt Kombinationen von Token als einzelnes Token. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| SimpleField |
Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. |
| SingleVectorFieldResult |
Ein einzelnes Vektorfeldergebnis. Beides |
| SnowballTokenFilter |
Ein Filter, der Wörter mit einem snowball-generierten Stammer abstammt. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| SoftDeleteColumnDeletionDetectionPolicy |
Definiert eine Datenlöscherkennungsrichtlinie, die eine Strategie für das vorläufige Löschen implementiert. Es bestimmt, ob ein Element basierend auf dem Wert einer festgelegten Spalte "vorläufiges Löschen" gelöscht werden soll. |
| SplitSkill |
Eine Fähigkeit, eine Zeichenfolge in Textblöcke aufzuteilen. |
| SqlIntegratedChangeTrackingPolicy |
Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen mithilfe des Integrierten Änderungsnachverfolgungsfeatures von Azure SQL-Datenbank erfasst. |
| StemmerOverrideTokenFilter |
Bietet die Möglichkeit, andere Wortstammfilter mit benutzerwörterbuchbasierter Wortstammerkennung außer Kraft zu setzen. Alle wörterbuchstammigen Begriffe werden als Schlüsselwörter markiert, sodass sie nicht mit Stemmern in der Kette gestammt werden. Muss vor allen Stemmingfiltern platziert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html. |
| StemmerTokenFilter |
Sprachspezifischer Wortstammfilter. Dieser Tokenfilter wird mit Apache Lucene implementiert. Siehe https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters. |
| StopAnalyzer |
Dividiert Text in Nichtbuchstaben; Wendet die Tokenfilter in Kleinbuchstaben und Stoppwörtern an. Dieser Analyzer wird mit Apache Lucene implementiert. |
| StopwordsTokenFilter |
Entfernt Stoppwörter aus einem Tokendatenstrom. Dieser Tokenfilter wird mit Apache Lucene implementiert. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html. |
| SuggestDocumentsResult |
Antwort, die Vorschlagsabfrageergebnisse aus einem Index enthält. |
| SuggestRequest |
Parameter zum Filtern, Sortieren, Fuzzyabgleich und andere Vorschläge abfrageverhalten. |
| Suggester |
Definiert, wie die Vorschlags-API auf eine Gruppe von Feldern im Index angewendet werden soll. |
| SynchronizationState |
Stellt den aktuellen Status einer laufenden Synchronisierung dar, die sich über mehrere Indexerausführungen erstreckt. |
| SynonymMap |
Stellt eine Synonymzuordnungsdefinition dar. |
| SynonymTokenFilter |
Gleicht ein- oder mehrere Wort-Synonyme in einem Tokendatenstrom ab. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| TagScoringFunction |
Definiert eine Funktion, die Die Bewertungen von Dokumenten mit Zeichenfolgenwerten erhöht, die einer bestimmten Liste von Tags entsprechen. |
| TagScoringParameters |
Stellt Parameterwerte für eine Tagbewertungsfunktion bereit. |
| TextResult |
Die BM25- oder Classic-Bewertung für den Textbereich der Abfrage. |
| TextTranslationSkill |
Eine Fähigkeit zum Übersetzen von Text aus einer Sprache in eine andere. |
| TextWeights |
Definiert Gewichtungen für Indexfelder, für die Übereinstimmungen die Bewertung in Suchabfragen erhöhen sollen. |
| TokenAuthAzureMachineLearningVectorizerParameters |
Gibt die Eigenschaften für die Verbindung mit einem AML-Vektorizer mit einer verwalteten Identität an. |
| TruncateTokenFilter |
Schneidet die Begriffe auf eine bestimmte Länge ab. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| UaxUrlEmailTokenizer |
Tokenisiert URLs und E-Mails als ein Token. Dieser Tokenizer wird mit Apache Lucene implementiert. |
| UniqueTokenFilter |
Filtert Token mit demselben Text wie das vorherige Token aus. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
| VectorSearch |
Enthält Konfigurationsoptionen im Zusammenhang mit der Vektorsuche. |
| VectorSearchOptions |
Definiert Optionen für Vektorsuchabfragen |
| VectorSearchProfile |
Definiert eine Kombination von Konfigurationen, die mit der Vektorsuche verwendet werden sollen. |
| VectorizableImageBinaryQuery |
Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn eine base64-codierte Binärdatei eines Bilds bereitgestellt wird, das vektorisiert werden muss. |
| VectorizableImageUrlQuery |
Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn eine URL, die einen Bildwert darstellt, der vektorisiert werden muss, bereitgestellt wird. |
| VectorizableTextQuery |
Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn ein Textwert bereitgestellt wird, der vektorisiert werden muss. |
| VectorizedQuery |
Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn ein unformatierter Vektorwert bereitgestellt wird. |
| VectorsDebugInfo |
"Enthält Debugging-Informationen, die spezifisch für Vektor- und Hybridsuche sind.") |
| WebApiParameters |
Gibt die Eigenschaften für die Verbindung mit einem benutzerdefinierten Vektorizer an. |
| WebApiSkill |
Eine Fähigkeit, die einen Web-API-Endpunkt aufrufen kann, sodass Sie ein Skillset erweitern können, indem Sie ihren benutzerdefinierten Code aufrufen. |
| WebApiVectorizer |
Gibt einen benutzerdefinierten Vektorizer zum Generieren des Vektoreinbettungs einer Abfragezeichenfolge an. Die Integration eines externen Vektorizers erfolgt mithilfe der benutzerdefinierten Web-API-Schnittstelle eines Skillsets. |
| WebKnowledgeSource |
Wissensquelle, die auf Webergebnisse abzielt. |
| WebKnowledgeSourceDomain |
Konfiguration für die Web-Wissensquellendomäne. |
| WebKnowledgeSourceDomains |
Konfiguration der Domäne für Web-Wissensquelle zulassen/blockieren. |
| WebKnowledgeSourceParameters |
Parameter für die Web-Wissensquelle. |
| WebKnowledgeSourceParams |
Gibt Laufzeitparameter für eine Webwissensquelle an |
| WordDelimiterTokenFilter |
Teilt Wörter in Unterwörter auf und führt optionale Transformationen für Unterwortgruppen aus. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
Typaliase
| AIFoundryModelCatalogName |
Der Name des Embedding-Modells aus dem Azure AI Foundry
Catalog, das genannt wird. Bekannte Werte, die vom Dienst unterstützt werden
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32: OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
| AliasIterator |
Ein Iterator zum Auflisten der Aliase, die im Suchdienst vorhanden sind. Dadurch werden Anforderungen bei Bedarf während der Iteration vorgenommen. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
| AnalyzeTextOptions |
Optionen für die Textanalyse. |
| AutocompleteMode |
Gibt den Modus für die automatische Vervollständigung an. Der Standardwert ist 'oneTerm'. Verwenden Sie 'twoTerms', um Gürtelrose abzurufen, und 'oneTermWithContext', um den aktuellen Kontext bei der Erstellung von Autovervollständigungsbegriffen zu verwenden. |
| AutocompleteOptions |
Optionen zum Abrufen von Abschlusstext für einen teilweisen SearchText. |
| AzureMachineLearningVectorizerParameters |
Gibt die Eigenschaften für die Verbindung mit einem AML-Vektorizer an. |
| AzureOpenAIModelName |
Der Name des Azure Open AI-Modells, der aufgerufen wird. Bekannte Werte, die vom Dienst unterstützt werden
text-embedding-ada-002: TextEmbeddingAda002-Modell. |
| BaseKnowledgeRetrievalIntent |
Alias für KnowledgeRetrievalIntentUnion |
| BlobIndexerDataToExtract | |
| BlobIndexerImageAction | |
| BlobIndexerPDFTextRotationAlgorithm | |
| BlobIndexerParsingMode | |
| CharFilter |
Enthält die möglichen Fälle für CharFilter. |
| CharFilterName |
Definiert die Namen aller Zeichenfilter, die von der Suchmaschine unterstützt werden. Bekannte Werte, die vom Dienst unterstützt werdenhtml_strip: Ein Zeichenfilter, der versucht, HTML-Konstrukte zu entfernen. Siehe https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html. |
| ChatCompletionExtraParametersBehavior |
Spezifiziert, wie 'extraParameters' von Azure AI Foundry
behandelt werden sollen. Der Standardwert ist 'error'. Bekannte Werte, die vom Dienst unterstützt werden
passThrough: Übergibt alle zusätzlichen Parameter direkt an das Modell. |
| ChatCompletionResponseFormatType |
Gibt an, wie der LLM die Antwort formatieren soll. Bekannte Werte, die vom Dienst unterstützt werden
Text: Einfachtext-Antwortformat. |
| CjkBigramTokenFilterScripts |
Skripts, die von CjkBigramTokenFilter ignoriert werden können. |
| CognitiveServicesAccount |
Enthält die möglichen Fälle für CognitiveServicesAccount. |
| ComplexDataType |
Definiert Werte für ComplexDataType. Mögliche Werte sind: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
| ContentUnderstandingSkillChunkingUnit |
Steuert die Kardinalität der Blockeinheit. Standard sind 'Charaktere' Bekannte Werte, die vom Dienst unterstützt werdencharacters: Gibt Chunk by Character an. |
| ContentUnderstandingSkillExtractionOptions |
Steuert die Kardinalität des Inhalts, der vom Skill aus dem Dokument extrahiert wird. Bekannte Werte, die vom Dienst unterstützt werden
images: Geben Sie an, dass Bildinhalte aus dem Dokument extrahiert werden sollen. |
| ContinuablePage |
Eine Schnittstelle, die eine Seite mit Ergebnissen beschreibt. |
| CountDocumentsOptions |
Optionen zum Ausführen des Zählungsvorgangs für den Index. |
| CreateAliasOptions |
Optionen zum Erstellen eines Aliasvorgangs. |
| CreateDataSourceConnectionOptions |
Optionen zum Erstellen des Datenquellenvorgangs. |
| CreateIndexOptions |
Optionen zum Erstellen eines Indexvorgangs. |
| CreateIndexerOptions |
Optionen zum Erstellen eines Indexervorgangs. |
| CreateSkillsetOptions |
Optionen zum Erstellen von Skillset-Vorgängen. |
| CreateSynonymMapOptions |
Optionen zum Erstellen eines Synonymmap-Vorgangs. |
| CustomEntityLookupSkillLanguage | |
| DataChangeDetectionPolicy |
Enthält die möglichen Fälle für DataChangeDetectionPolicy. |
| DataDeletionDetectionPolicy |
Enthält die möglichen Fälle für DataDeletionDetectionPolicy. |
| DeleteDocumentsOptions |
Optionen für den Vorgang zum Löschen von Dokumenten. |
| DocumentIntelligenceLayoutSkillChunkingUnit |
Steuert die Kardinalität der Blockeinheit. Standard sind 'Charaktere' Bekannte Werte, die vom Dienst unterstützt werdencharacters: Gibt Chunk by Character an. |
| DocumentIntelligenceLayoutSkillExtractionOptions |
Steuert die Kardinalität des Inhalts, der vom Skill aus dem Dokument extrahiert wird. Bekannte Werte, die vom Dienst unterstützt werden
images: Geben Sie an, dass Bildinhalte aus dem Dokument extrahiert werden sollen. |
| DocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
Die Tiefe der Kopfzeilen in der Markdownausgabe. Der Standardwert ist h6. Bekannte Werte, die vom Dienst unterstützt werden
h1: Kopfebene 1. |
| DocumentIntelligenceLayoutSkillOutputFormat |
Steuert die Kardinalität des Ausgabeformats. Der Standardwert ist 'markdown'. Bekannte Werte, die vom Dienst unterstützt werden
text: Geben Sie das Format der Ausgabe als Text an. |
| DocumentIntelligenceLayoutSkillOutputMode |
Steuert die Kardinalität der Ausgabe, die von der Fähigkeit erzeugt wird. Der Standardwert ist "oneToMany". Bekannte Werte, die vom Dienst unterstützt werdenoneToMany: Geben Sie an, dass die Ausgabe als 'oneToMany' analysiert werden soll. |
| EdgeNGramTokenFilterSide |
Gibt an, von welcher Seite der Eingabe ein N-Gramm generiert werden soll. |
| EntityCategory |
Eine Zeichenfolge, die angibt, welche Entitätskategorien zurückgegeben werden sollen. Bekannte Werte, die vom Dienst unterstützt werden
Ort: Entitäten, die einen physischen Ort beschreiben. |
| EntityRecognitionSkillLanguage |
Die Sprachcodes, die von EntityRecognitionSkill für Eingabetext unterstützt werden. Bekannte Werte, die vom Dienst unterstützt werden
ar: Arabisch |
| ExcludedODataTypes | |
| ExhaustiveKnnAlgorithmConfiguration |
Enthält Konfigurationsoptionen, die spezifisch für den vollständigen KNN-Algorithmus sind, der während der Abfrage verwendet wird, wodurch die Brute-Force-Suche im gesamten Vektorindex ausgeführt wird. |
| ExtractDocumentKey | |
| GetAliasOptions |
Optionen zum Abrufen des Aliasvorgangs. |
| GetDataSourceConnectionOptions |
Optionen zum Abrufen des Datenquellenvorgangs. |
| GetIndexOptions |
Optionen zum Abrufen des Indexvorgangs. |
| GetIndexStatisticsOptions |
Optionen zum Abrufen des Indexstatistikvorgangs. |
| GetIndexerOptions |
Optionen zum Abrufen des Indexervorgangs. |
| GetIndexerStatusOptions |
Optionen zum Abrufen des Indexerstatusvorgangs. |
| GetServiceStatisticsOptions |
Optionen zum Abrufen des Dienststatistikvorgangs. |
| GetSkillSetOptions |
Optionen zum Abrufen des Skillset-Vorgangs. |
| GetSynonymMapsOptions |
Optionen zum Abrufen des Synonymmaps-Vorgangs. |
| HnswAlgorithmConfiguration |
Enthält Konfigurationsoptionen, die spezifisch für den hnsw näheren Nachbaralgorithmus sind, der während der Indizierungszeit verwendet wird. |
| ImageAnalysisSkillLanguage | |
| ImageDetail | |
| IndexActionType |
Der Vorgang, der für ein Dokument in einem Indizierungsbatch ausgeführt werden soll. |
| IndexDocumentsAction |
Stellt eine Indexaktion dar, die auf einem Dokument ausgeführt wird. |
| IndexIterator |
Ein Iterator zum Auflisten der Indizes, die im Suchdienst vorhanden sind. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
| IndexNameIterator |
Ein Iterator zum Auflisten der Indizes, die im Suchdienst vorhanden sind. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
| IndexProjectionMode |
Definiert das Verhalten der Indexprojektionen in Bezug auf den Rest des Indexers. Bekannte Werte, die vom Dienst unterstützt werden
skipIndexingParentDocuments: Das Quelldokument wird vom Schreiben in den Zielindex des Indexers übersprungen. |
| IndexerExecutionEnvironment | |
| IndexerExecutionStatus |
Stellt den Status einer einzelnen Indexerausführung dar. |
| IndexerResyncOption |
Optionen mit verschiedenen Arten von Berechtigungsdaten zum Indizieren. Bekannte Werte, die vom Dienst unterstützt werdenBerechtigungen: Indexer zum erneuten Erfassen von vorab ausgewählten Berechtigungsdaten aus der Datenquelle in den Index. |
| IndexerStatus |
Stellt den Gesamtstatus des Indexers dar. |
| KeyPhraseExtractionSkillLanguage | |
| KnowledgeBaseActivityRecord |
Alias für KnowledgeBaseActivityRecordUnion |
| KnowledgeBaseActivityRecordType |
Die Art der Aktivitätsaufzeichnung. Bekannte Werte, die vom Dienst unterstützt werden
searchIndex: Suchindex-Abrufaktivität. |
| KnowledgeBaseIterator |
Ein Iterator zur Auflistung der Wissensdatenbanken, die im Suchdienst existieren. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
| KnowledgeBaseMessageContent |
Alias für KnowledgeBaseMessageContentUnion |
| KnowledgeBaseMessageContentType |
Die Art des Nachrichteninhalts. Bekannte Werte, die vom Dienst unterstützt werden
Text: Textnachrichten-Inhalt. |
| KnowledgeBaseModel | |
| KnowledgeBaseModelKind |
Das KI-Modell, das für die Abfrageplanung verwendet werden soll. Bekannte Werte, die vom Dienst unterstützt werdenazureOpenAI: Verwenden Sie Azure Open-AI-Modelle für Abfrageplanung. |
| KnowledgeBaseReference |
Alias für KnowledgeBaseReferenceUnion |
| KnowledgeBaseReferenceType |
Der Verweistyp. Bekannte Werte, die vom Dienst unterstützt werden
searchIndex: Suchindex Dokumentreferenz. |
| KnowledgeRetrievalIntentType |
Die Art von Wissensdatenbank-Konfiguration, die man verwenden sollte. Bekannte Werte, die vom Dienst unterstützt werdenSemantisch: Eine semantische Abfrageabsicht in natürlicher Sprache. |
| KnowledgeRetrievalReasoningEffortKind |
Der Aufwand, der beim Abrufen verwendet werden soll. Bekannte Werte, die vom Dienst unterstützt werdenminimal: Führt keine Quellauswahl, Abfrageplanung oder iterative Suche durch. |
| KnowledgeRetrievalReasoningEffortUnion |
Alias für KnowledgeRetrievalReasoningEffortUnion |
| KnowledgeSource | |
| KnowledgeSourceContentExtractionMode |
Optionaler Modus zur Extraktion von Inhalten. Der Standardwert ist 'minimal'. Bekannte Werte, die vom Dienst unterstützt werden
minimal: Extrahiert nur wesentliche Metadaten, während die meisten Inhaltsverarbeitungen aufgeschoben werden. |
| KnowledgeSourceIterator |
Ein Iterator zur Auflistung der Wissensquellen, die im Suchdienst vorhanden sind. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
| KnowledgeSourceKind |
Die Art der Wissensquelle. Bekannte Werte, die vom Dienst unterstützt werden
searchIndex: Eine Wissensquelle, die Daten aus einem Suchindex liest. |
| KnowledgeSourceParams |
Alias für KnowledgeSourceParamsUnion |
| KnowledgeSourceSynchronizationStatus |
Der aktuelle Synchronisierungsstatus der Wissensquelle. Bekannte Werte, die vom Dienst unterstützt werden
erschaffen: Die Wissensquelle wird bereitgestellt. |
| KnowledgeSourceVectorizer | |
| LexicalAnalyzer |
Enthält die möglichen Fälle für Analyzer. |
| LexicalAnalyzerName |
Definiert die Namen aller Textanalysetools, die von der Suchmaschine unterstützt werden. Bekannte Werte, die vom Dienst unterstützt werden
ar.microsoft: Microsoft Analyzer für Arabisch. |
| LexicalNormalizer |
Enthält die möglichen Fälle für LexicalNormalizer. |
| LexicalNormalizerName |
Definiert die Namen aller Textnormalisierer, die von der Suchmaschine unterstützt werden. Bekannte Werte, die vom Dienst unterstützt werden
asciifolding: Wandelt alphabetische, numerische und symbolische Unicode-Zeichen um, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") in ihre ASCII-Entsprechungen befinden, wenn solche Entsprechungen vorhanden sind. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html. |
| LexicalTokenizer |
Enthält die möglichen Fälle für Tokenizer. |
| LexicalTokenizerName |
Definiert die Namen aller Tokenizer, die von der Suchmaschine unterstützt werden. Bekannte Werte, die vom Dienst unterstützt werden
klassischen: Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente in Europa geeignet ist. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html. |
| ListAliasesOptions |
Optionen für listenaliases-Vorgang. |
| ListDataSourceConnectionsOptions |
Optionen für einen Listendatenquellenvorgang. |
| ListIndexersOptions |
Optionen für einen Listenindizierungsvorgang. |
| ListIndexesOptions |
Optionen für einen Listenindexvorgang. |
| ListSkillsetsOptions |
Optionen für einen Listen-Skillsets-Vorgang. |
| ListSynonymMapsOptions |
Optionen für einen Listen synonymMaps-Vorgang. |
| MarkdownHeaderDepth |
Gibt die maximale Headertiefe an, die beim Gruppieren von Markdowninhalten berücksichtigt wird. Der Standardwert ist Bekannte Werte, die vom Dienst unterstützt werden
h1: Gibt an, dass Kopfzeilen bis zu einer Ebene von h1 beim Gruppieren von Markdowninhalten berücksichtigt werden. |
| MarkdownParsingSubmode |
Gibt den Untermodus an, der bestimmt, ob eine Markdowndatei in genau ein Suchdokument oder in mehrere Suchdokumente analysiert wird. Der Standardwert ist Bekannte Werte, die vom Dienst unterstützt werden
oneToMany: Gibt an, dass jeder Abschnitt der Markdowndatei (bis zu einer bestimmten Tiefe) in einzelne Suchdokumente analysiert wird. Dies kann zu einer einzelnen Markdowndatei führen, die mehrere Suchdokumente erzeugt. Dies ist der Standarduntermodus. |
| MergeDocumentsOptions |
Optionen für den Vorgang "Dokumente zusammenführen". |
| MergeOrUploadDocumentsOptions |
Optionen für den Vorgang zum Zusammenführen oder Hochladen von Dokumenten. |
| MicrosoftStemmingTokenizerLanguage |
Listet die vom Microsoft Language Stemming Tokenizer unterstützten Sprachen auf. |
| MicrosoftTokenizerLanguage |
Listet die vom Microsoft-Sprachen-Tokenizer unterstützten Sprachen auf. |
| NarrowedModel |
Beschränkt den Modelltyp so, dass nur die ausgewählten Felder enthalten sind. |
| OcrLineEnding |
Definiert die Abfolge von Zeichen, die zwischen den Textzeilen verwendet werden sollen, die von der OCR-Fähigkeit erkannt werden. Der Standardwert ist "space". Bekannte Werte, die vom Dienst unterstützt werden
Leerzeichen: Zeilen werden durch ein einzelnes Leerzeichen getrennt. |
| OcrSkillLanguage | |
| PIIDetectionSkillMaskingMode | |
| PhoneticEncoder |
Gibt den Typ des phonetischen Encoders an, der mit einem PhoneticTokenFilter verwendet werden soll. |
| QueryAnswer |
Ein Wert, der angibt, ob Antworten als Teil der Suchantwort zurückgegeben werden sollen.
Dieser Parameter ist nur gültig, wenn der Abfragetyp "semantisch" ist. Wenn sie auf |
| QueryCaption |
Ein Wert, der angibt, ob Beschriftungen als Teil der Suchantwort zurückgegeben werden sollen. Dieser Parameter ist nur gültig, wenn der Abfragetyp "semantisch" ist. Wenn festgelegt, gibt die Abfrage Beschriftungen zurück, die aus Schlüsselabschnitten in den höchsten bewerteten Dokumenten extrahiert wurden. Wenn Beschriftungen "extraktiv" sind, ist die Hervorhebung standardmäßig aktiviert. Der Standardwert ist "none". |
| QueryDebugMode |
Aktiviert ein Debugtool, mit dem Sie Ihre Suchergebnisse weiter untersuchen können. Sie können mehrere Debug-Modi gleichzeitig aktivieren, indem Sie sie mit einem | Zeichen, zum Beispiel: semantic|queryRewrites. Bekannte Werte, die vom Dienst unterstützt werden
disabled: Es werden keine Informationen zum Abfragedebuggen zurückgegeben. |
| QueryRewrites |
Definiert Optionen für das Umschreiben von Abfragen. |
| QueryType |
Gibt die Syntax der Suchabfrage an. Der Standardwert ist "einfach". Verwenden Sie 'full', wenn Ihre Abfrage die Lucene-Abfragesyntax verwendet, und 'semantic', wenn die Abfragesyntax nicht benötigt wird. Bekannte Werte, die vom Dienst unterstützt werden
Einfach: Verwendet die einfache Abfragesyntax für Suchanfragen. Der Suchtext wird mit einer einfachen Abfragesprache interpretiert, die Symbole wie +, * und "" zulässt. Abfragen werden standardmäßig über alle durchsuchbaren Felder ausgewertet, es sei denn, der Parameter searchFields ist angegeben. |
| RankingOrder |
Stellt die Punktzahl dar, die für die Sortierreihenfolge von Dokumenten verwendet werden soll. Bekannte Werte, die vom Dienst unterstützt werden
BoostedRerankerScore: Legt die Sortierreihenfolge als BoostedRerankerScore fest |
| RegexFlags | |
| ResetIndexerOptions |
Optionen zum Zurücksetzen des Indexervorgangs. |
| RunIndexerOptions |
Optionen zum Ausführen des Indexervorgangs. |
| ScoringFunction |
Enthält die möglichen Fälle für ScoringFunction. |
| ScoringFunctionAggregation |
Definiert die Aggregationsfunktion, die verwendet wird, um die Ergebnisse aller Bewertungsfunktionen in einem Bewertungsprofil zu kombinieren. |
| ScoringFunctionInterpolation |
Definiert die Funktion, die zum Interpolieren von Score Boosting in einem Dokumentbereich verwendet wird. |
| ScoringStatistics |
Ein Wert, der angibt, ob wir Bewertungsstatistiken (z. B. Dokumenthäufigkeit) global für eine konsistentere Bewertung oder lokal für niedrigere Latenz berechnen möchten. Der Standardwert ist 'local'. Verwenden Sie "global", um Punktestatistiken global zu aggregieren, bevor Sie eine Bewertung vornehmen. Die Verwendung globaler Bewertungsstatistiken kann die Latenz von Suchanfragen erhöhen. |
| SearchField |
Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. |
| SearchFieldArray |
Wenn |
| SearchFieldDataType |
Definiert Werte für SearchFieldDataType. Bekannte Werte, die vom Dienst unterstützt werden:Edm.String: Gibt an, dass ein Feld eine Zeichenfolge enthält. Edm.Int32-: Gibt an, dass ein Feld eine 32-Bit-Ganzzahl mit Vorzeichen enthält. Edm.Int64-: Gibt an, dass ein Feld eine 64-Bit-Ganzzahl enthält. Edm.Double: Gibt an, dass ein Feld eine IEEE-Gleitkommazahl mit doppelter Genauigkeit enthält. Edm.Boolean: Gibt an, dass ein Feld einen booleschen Wert (true oder false) enthält. Edm.DateTimeOffset: Gibt an, dass ein Feld einen Datums-/Uhrzeitwert enthält, einschließlich Zeitzoneninformationen. Edm.GeographyPoint: Gibt an, dass ein Feld einen geografischen Standort in Bezug auf Längengrad und Breitengrad enthält. Edm.ComplexType: Gibt an, dass ein Feld ein oder mehrere komplexe Objekte enthält, die wiederum Unterfelder anderer Typen aufweisen. Edm.Single: Gibt an, dass ein Feld eine Gleitkommazahl mit einfacher Genauigkeit enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Single). Edm.Half: Gibt an, dass ein Feld eine Gleitkommazahl mit halber Genauigkeit enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Half). Edm.Int16-: Gibt an, dass ein Feld eine 16-Bit-ganzzahlige Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Int16). Edm.SByte-: Gibt an, dass ein Feld eine 8-Bit-ganzzahl mit Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.SByte). Edm.Byte-: Gibt an, dass ein Feld eine 8-Bit-ganzzahl ohne Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Byte). |
| SearchIndexAlias |
Suchalias-Objekt. |
| SearchIndexerDataIdentity |
Enthält die möglichen Fälle für SearchIndexerDataIdentity. |
| SearchIndexerDataSourceType | |
| SearchIndexerSkill |
Enthält die möglichen Fälle für Skill. |
| SearchIndexingBufferedSenderDeleteDocumentsOptions |
Optionen für SearchIndexingBufferedSenderDeleteDocuments. |
| SearchIndexingBufferedSenderFlushDocumentsOptions |
Optionen für SearchIndexingBufferedSenderFlushDocuments. |
| SearchIndexingBufferedSenderMergeDocumentsOptions |
Optionen für SearchIndexingBufferedSenderMergeDocuments. |
| SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Optionen für SearchIndexingBufferedSenderMergeOrUploadDocuments. |
| SearchIndexingBufferedSenderUploadDocumentsOptions |
Optionen für SearchIndexingBufferedSenderUploadDocuments. |
| SearchIterator |
Ein Iterator für Suchergebnisse einer Paticular-Abfrage. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen. |
| SearchMode |
Gibt an, ob einige oder alle Suchbegriffe übereinstimmen müssen, damit das Dokument als Übereinstimmung gezählt wird. |
| SearchOptions |
Optionen für das Commit einer vollständigen Suchanforderung. |
| SearchPick |
Wählen Sie Felder von T mit gültigen AI Search OData-$select Pfaden tief aus. |
| SearchRequestOptions |
Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten. |
| SearchRequestQueryTypeOptions | |
| SearchResult |
Enthält ein Dokument, das von einer Suchabfrage gefunden wurde, sowie zugeordnete Metadaten. |
| SelectFields |
Erzeugt eine Vereinigung gültiger AI Search-OData-$select Pfade für T unter Verwendung eines Post-Order-Traversals des Feldbaums, der bei T verwurzelt ist. |
| SemanticErrorMode | |
| SemanticErrorReason | |
| SemanticSearchResultsType |
Typ der Teilantwort, die für eine semantische Rangfolgeanforderung zurückgegeben wurde. Bekannte Werte, die vom Dienst unterstützt werden
baseResults: Ergebnisse ohne semantische Anreicherung oder Neubewertung. |
| SentimentSkillLanguage |
Die Sprachcodes, die von SentimentSkill für Eingabetext unterstützt werden. Bekannte Werte, die vom Dienst unterstützt werden
da: Dänisch |
| Similarity |
Alias für SimilarityAlgorithmUnion |
| SimilarityAlgorithm |
Enthält die möglichen Fälle für Ähnlichkeit. |
| SnowballTokenFilterLanguage |
Die Sprache, die für einen Snowball-Token-Filter verwendet werden soll. |
| SplitSkillLanguage | |
| StemmerTokenFilterLanguage |
Die Sprache, die für einen Stemmmertokenfilter verwendet werden soll. |
| StopwordsList |
Gibt eine vordefinierte Liste von sprachspezifischen Stoppwörtern an. |
| SuggestNarrowedModel | |
| SuggestOptions |
Optionen zum Abrufen von Vorschlägen basierend auf dem searchText. |
| SuggestResult |
Ein Ergebnis, das ein Dokument enthält, das von einer Vorschlagsabfrage gefunden wurde, sowie zugeordnete Metadaten. |
| TextSplitMode | |
| TextTranslationSkillLanguage | |
| TokenCharacterKind |
Stellt Zeichenklassen dar, auf die ein Tokenfilter angewendet werden kann. |
| TokenFilter |
Enthält die möglichen Fälle für TokenFilter. |
| TokenFilterName |
Definiert die Namen aller Tokenfilter, die von der Suchmaschine unterstützt werden. Bekannte Werte, die vom Dienst unterstützt werden
arabic_normalization: Ein Tokenfilter, der den arabischen Normalisierer anwendet, um die Orthografie zu normalisieren. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html. |
| UnionToIntersection | |
| UploadDocumentsOptions |
Optionen für den Vorgang zum Hochladen von Dokumenten. |
| VectorEncodingFormat |
Das Codierungsformat für die Interpretation von Vektorfeldinhalten. Bekannte Werte, die vom Dienst unterstützt werdenpackedBit-: Codierungsformat, das Bits darstellt, die in einen breiteren Datentyp verpackt sind. |
| VectorFilterMode | |
| VectorQuery |
Die Abfrageparameter für Vektor- und Hybridsuchabfragen. |
| VectorQueryKind | |
| VectorSearchAlgorithmConfiguration |
Enthält konfigurationsspezifische Optionen für den Algorithmus, der während der Indizierung und/oder Abfrage verwendet wird. |
| VectorSearchAlgorithmKind | |
| VectorSearchAlgorithmMetric | |
| VectorSearchCompression |
Enthält konfigurationsspezifische Optionen für die Komprimierungsmethode, die während der Indizierung oder Abfrage verwendet wird. |
| VectorSearchCompressionKind |
Die Komprimierungsmethode, die für die Indizierung und Abfrage verwendet wird. Bekannte Werte, die vom Dienst unterstützt werden
skalarQuantization: Scalar Quantization, eine Art von Komprimierungsmethode. In der skalaren Quantisierung werden die ursprünglichen Vektorwerte in einen schmaleren Typ komprimiert, indem jede Komponente eines Vektors mithilfe eines reduzierten Satzes quantisierter Werte diskretiert und dargestellt wird, wodurch die Gesamtdatengröße reduziert wird. |
| VectorSearchCompressionRescoreStorageMethod |
Die Speichermethode für die ursprünglichen Vektoren mit voller Genauigkeit, die für die Neubewertung und interne Indexvorgänge verwendet werden. Bekannte Werte, die vom Dienst unterstützt werden
preserveOriginals: Mit dieser Option werden die ursprünglichen Vektoren mit voller Genauigkeit beibehalten. Wählen Sie diese Option für maximale Flexibilität und höchste Qualität komprimierter Suchergebnisse aus. Dies verbraucht mehr Speicher, ermöglicht jedoch das Erneute Korrigieren und Überstempeln. |
| VectorSearchCompressionTarget |
Der quantisierte Datentyp von komprimierten Vektorwerten. Bekannte Werte, die vom Dienst unterstützt werdenint8: 8-Bit-signierte Ganzzahl. |
| VectorSearchVectorizer |
Enthält Konfigurationsoptionen zum Vektorisieren von Textvektorabfragen. |
| VectorSearchVectorizerKind |
Die Vektorisierungsmethode, die während der Abfragezeit verwendet werden soll. Bekannte Werte, die vom Dienst unterstützt werden
azureOpenAI-: Generieren Sie Einbettungen mithilfe einer Azure OpenAI-Ressource zur Abfragezeit. |
| VisualFeature | |
| WebApiSkills | |
Enumerationen
| KnownAIFoundryModelCatalogName |
Der Name des Embedding-Modells aus dem Azure AI Foundry Catalog, das genannt wird. |
| KnownAnalyzerNames |
Definiert Werte für AnalyzerName. Siehe https://learn.microsoft.com/rest/api/searchservice/Language-support. |
| KnownAzureOpenAIModelName |
Der Name des Azure Open AI-Modells, der aufgerufen wird. |
| KnownBlobIndexerDataToExtract |
Gibt die Daten an, die aus Azure Blob Storage extrahiert werden sollen, und teilt dem Indexer mit, welche Daten aus Bildinhalten extrahiert werden sollen, wenn "imageAction" auf einen anderen Wert als "none" festgelegt ist. Dies gilt für eingebettete Bildinhalte in einem .PDF oder einer anderen Anwendung oder für Bilddateien wie .jpg und .pngin Azure-Blobs. |
| KnownBlobIndexerImageAction |
Bestimmt, wie eingebettete Bilder und Bilddateien in Azure Blob Storage verarbeitet werden. Das Festlegen der "imageAction"-Konfiguration auf einen anderen Wert als "none" erfordert, dass diesem Indexer auch ein Skillset angefügt wird. |
| KnownBlobIndexerPDFTextRotationAlgorithm |
Bestimmt den Algorithmus für die Textextraktion aus PDF-Dateien in Azure Blob Storage. |
| KnownBlobIndexerParsingMode |
Stellt den Analysemodus für die Indizierung aus einer Azure-Blobdatenquelle dar. |
| KnownCharFilterNames |
Definiert Werte für CharFilterName. |
| KnownChatCompletionExtraParametersBehavior |
Spezifiziert, wie 'extraParameters' von Azure AI Foundry behandelt werden sollen. Der Standardwert ist 'error'. |
| KnownChatCompletionResponseFormatType |
Gibt an, wie der LLM die Antwort formatieren soll. |
| KnownContentUnderstandingSkillChunkingUnit |
Steuert die Kardinalität der Blockeinheit. Der Standardwert ist 'characters' |
| KnownContentUnderstandingSkillExtractionOptions |
Steuert die Kardinalität des Inhalts, der vom Skill aus dem Dokument extrahiert wird. |
| KnownCustomEntityLookupSkillLanguage |
Die Sprachcodes, die von CustomEntityLookupSkill für Eingabetext unterstützt werden. |
| KnownDocumentIntelligenceLayoutSkillChunkingUnit |
Steuert die Kardinalität der Blockeinheit. Der Standardwert ist 'characters' |
| KnownDocumentIntelligenceLayoutSkillExtractionOptions |
Steuert die Kardinalität des Inhalts, der vom Skill aus dem Dokument extrahiert wird. |
| KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
Die Tiefe der Kopfzeilen in der Markdownausgabe. Der Standardwert ist h6. |
| KnownDocumentIntelligenceLayoutSkillOutputFormat |
Steuert die Kardinalität des Ausgabeformats. Der Standardwert ist 'markdown'. |
| KnownDocumentIntelligenceLayoutSkillOutputMode |
Steuert die Kardinalität der Ausgabe, die von der Fähigkeit erzeugt wird. Der Standardwert ist "oneToMany". |
| KnownEntityCategory |
Eine Zeichenfolge, die angibt, welche Entitätskategorien zurückgegeben werden sollen. |
| KnownEntityRecognitionSkillLanguage |
Die Sprachcodes, die von EntityRecognitionSkill für Eingabetext unterstützt werden. |
| KnownImageAnalysisSkillLanguage |
Die Sprachcodes, die für die Eingabe von ImageAnalysisSkill unterstützt werden. |
| KnownImageDetail |
Eine Zeichenfolge, die angibt, welche domänenspezifischen Details zurückgegeben werden sollen. |
| KnownIndexProjectionMode |
Definiert das Verhalten der Indexprojektionen in Bezug auf den Rest des Indexers. |
| KnownIndexerExecutionEnvironment |
Gibt die Umgebung an, in der der Indexer ausgeführt werden soll. |
| KnownIndexerResyncOption |
Optionen mit verschiedenen Arten von Berechtigungsdaten zum Indizieren. |
| KnownKeyPhraseExtractionSkillLanguage |
Die Sprachcodes, die von KeyPhraseExtractionSkill für Eingabetext unterstützt werden. |
| KnownKnowledgeBaseModelKind |
Das KI-Modell, das für die Abfrageplanung verwendet werden soll. |
| KnownKnowledgeSourceKind |
Die Art der Wissensquelle. |
| KnownLexicalAnalyzerName |
Definiert die Namen aller Textanalysetools, die von der Suchmaschine unterstützt werden. |
| KnownLexicalNormalizerName |
Definiert die Namen aller Textnormalisierer, die von der Suchmaschine unterstützt werden. |
| KnownMarkdownHeaderDepth |
Gibt die maximale Headertiefe an, die beim Gruppieren von Markdowninhalten berücksichtigt wird. Der Standardwert ist |
| KnownMarkdownParsingSubmode |
Gibt den Untermodus an, der bestimmt, ob eine Markdowndatei in genau ein Suchdokument oder in mehrere Suchdokumente analysiert wird. Der Standardwert ist |
| KnownOcrLineEnding |
Definiert die Abfolge von Zeichen, die zwischen den Textzeilen verwendet werden sollen, die von der OCR-Fähigkeit erkannt werden. Der Standardwert ist "space". |
| KnownOcrSkillLanguage |
Die Sprachcodes, die für die Eingabe durch OcrSkill unterstützt werden. |
| KnownPIIDetectionSkillMaskingMode |
Eine Zeichenfolge, die angibt, welcher maskingMode verwendet werden soll, um die im Eingabetext erkannten persönlichen Informationen zu maskieren. |
| KnownQueryDebugMode |
Aktiviert ein Debugtool, mit dem Sie Ihre Suchergebnisse weiter untersuchen können. Sie können mehrere Debug-Modi gleichzeitig aktivieren, indem Sie sie mit einem | Zeichen, zum Beispiel: semantic|queryRewrites. |
| KnownRankingOrder |
Stellt die Punktzahl dar, die für die Sortierreihenfolge von Dokumenten verwendet werden soll. |
| KnownRegexFlags |
Definiert ein reguläres Ausdrucks-Flag, das im Musteranalysator und Muster-Tokenizer verwendet werden kann. |
| KnownSearchAudience |
Bekannte Werte für die Suchgruppe |
| KnownSearchFieldDataType |
Definiert den Datentyp eines Feldes in einem Suchindex. |
| KnownSearchIndexerDataSourceType |
Definiert den Typ einer Datenquelle. |
| KnownSemanticErrorMode |
Ermöglicht es dem Benutzer zu wählen, ob ein semantischer Aufruf vollständig fehlschlägt oder teilweise Ergebnisse zurückgibt. |
| KnownSemanticErrorReason |
Grund dafür, dass eine Teilantwort für eine semantische Rangfolgeanforderung zurückgegeben wurde. |
| KnownSemanticSearchResultsType |
Typ der Teilantwort, die für eine semantische Rangfolgeanforderung zurückgegeben wurde. |
| KnownSentimentSkillLanguage |
Die Sprachcodes, die von SentimentSkill für Eingabetext unterstützt werden. |
| KnownSplitSkillLanguage |
Die Sprachcodes, die von SplitSkill für Eingabetext unterstützt werden. |
| KnownTextSplitMode |
Ein Wert, der angibt, welcher Geteilte Modus ausgeführt werden soll. |
| KnownTextTranslationSkillLanguage |
Die Sprachcodes, die von TextTranslationSkill für Eingabetext unterstützt werden. |
| KnownTokenFilterNames |
Definiert Werte für TokenFilterName. |
| KnownTokenizerNames |
Definiert Werte für TokenizerName. |
| KnownVectorEncodingFormat |
Das Codierungsformat für die Interpretation von Vektorfeldinhalten. |
| KnownVectorFilterMode |
Legt fest, ob Filter vor oder nach der Vektorsuche angewendet werden. |
| KnownVectorQueryKind |
Die Art der Vektorabfrage, die ausgeführt wird. |
| KnownVectorSearchAlgorithmKind |
Der Algorithmus, der für die Indizierung und Abfrage verwendet wird. |
| KnownVectorSearchAlgorithmMetric |
Die Ähnlichkeitsmetrik, die für Vektorvergleiche verwendet werden soll. Es wird empfohlen, dieselbe Ähnlichkeitsmetrik zu wählen, mit der das Einbettungsmodell trainiert wurde. |
| KnownVectorSearchCompressionKind |
Die Komprimierungsmethode, die für die Indizierung und Abfrage verwendet wird. |
| KnownVectorSearchCompressionRescoreStorageMethod |
Die Speichermethode für die ursprünglichen Vektoren mit voller Genauigkeit, die für die Neubewertung und interne Indexvorgänge verwendet werden. |
| KnownVectorSearchCompressionTarget |
Der quantisierte Datentyp von komprimierten Vektorwerten. |
| KnownVectorSearchVectorizerKind |
Die Vektorisierungsmethode, die während der Abfragezeit verwendet werden soll. |
| KnownVisualFeature |
Die Zeichenfolgen, die angeben, welche visuellen Feature-Typen zurückgegeben werden sollen. |
Functions
| create |
Hilfsmethode zum Erstellen eines SynonymMap-Objekts. Dies ist eine einzige NodeJS-Methode. |
| odata(Template |
Maskiert einen odata-Filterausdruck, um Fehler beim Anführen von Zeichenfolgenliteralen zu vermeiden. Beispielverwendung:
Weitere Informationen zur unterstützten Syntax finden Sie unter: https://learn.microsoft.com/azure/search/search-query-odata-filter |
Variablen
| DEFAULT_BATCH_SIZE | Standard-Chargengröße |
| DEFAULT_FLUSH_WINDOW | Standardfenster-Flush-Intervall |
| DEFAULT_RETRY_COUNT | Standardanzahl der Wiederholungen. |
Details zur Funktion
createSynonymMapFromFile(string, string)
Hilfsmethode zum Erstellen eines SynonymMap-Objekts. Dies ist eine einzige NodeJS-Methode.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parameter
- name
-
string
Name der SynonymMap.
- filePath
-
string
Pfad der Datei, die die Synonyme enthält (getrennt durch neue Zeilen)
Gibt zurück
Promise<SynonymMap>
SynonymMap-Objekt
odata(TemplateStringsArray, unknown[])
Maskiert einen odata-Filterausdruck, um Fehler beim Anführen von Zeichenfolgenliteralen zu vermeiden. Beispielverwendung:
import { odata } from "@azure/search-documents";
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Weitere Informationen zur unterstützten Syntax finden Sie unter: https://learn.microsoft.com/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parameter
- strings
-
TemplateStringsArray
Array von Zeichenfolgen für den Ausdruck
- values
-
unknown[]
Array von Werten für den Ausdruck
Gibt zurück
string
Details zu Variablen
DEFAULT_BATCH_SIZE
Standard-Chargengröße
DEFAULT_BATCH_SIZE: number
Typ
number
DEFAULT_FLUSH_WINDOW
Standardfenster-Flush-Intervall
DEFAULT_FLUSH_WINDOW: number
Typ
number
DEFAULT_RETRY_COUNT
Standardanzahl der Wiederholungen.
DEFAULT_RETRY_COUNT: number
Typ
number