@azure/search-documents package

Klassen

AzureKeyCredential

Statische Schlüsselbasierte Anmeldeinformationen, die das Aktualisieren des zugrunde liegenden Schlüsselwerts unterstützen.

GeographyPoint

Stellt einen geografischen Punkt in globalen Koordinaten dar.

IndexDocumentsBatch

Klasse, die zum Ausführen von Batchvorgängen mit mehreren Dokumenten im Index verwendet wird.

KnowledgeRetrievalClient

Die Klasse wird verwendet, um Operationen gegen eine Wissensdatenbank auszuführen.

SearchClient

Klasse, die zum Ausführen von Vorgängen für einen Suchindex verwendet wird, einschließlich Abfragen von Dokumenten im Index sowie Hinzufügen, Aktualisieren und Entfernen von Dokumenten.

SearchIndexClient

Klasse zum Ausführen von Vorgängen zum Verwalten (Erstellen, Aktualisieren, Auflisten/Löschen) & Synonymmaps.

SearchIndexerClient

Klasse zum Ausführen von Vorgängen zum Verwalten (Erstellen, Aktualisieren, Listen/Löschen) von Indexern, Datenquellen & Skillsets.

SearchIndexingBufferedSender

Klasse, die zum Ausführen von gepufferten Vorgängen für einen Suchindex verwendet wird, einschließlich Hinzufügen, Aktualisieren und Entfernen dieser Vorgänge.

Schnittstellen

AIServices

Parameter für KI-Dienste.

AIServicesAccountIdentity

Das Multi-Region-Konto einer Azure-KI-Service-Ressource, die an ein Skillset gebunden ist.

AIServicesAccountKey

Der Kontoschlüssel einer Azure-KI-Service-Ressource, die mit einem Skillset verbunden ist und mit der Subdomäne der Ressource verwendet werden soll.

AnalyzeRequest

Gibt einige Text- und Analysekomponenten an, die zum Aufteilen dieses Texts in Token verwendet werden.

AnalyzeResult

Das Ergebnis des Tests eines Analyzers auf Text.

AnalyzedTokenInfo

Informationen zu einem token, das von einem Analyzer zurückgegeben wird.

AsciiFoldingTokenFilter

Konvertiert alphabetische, numerische und symbolische Unicode-Zeichen, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") befinden, in ihre ASCII-Entsprechungen, wenn solche Entsprechungen vorhanden sind. Dieser Tokenfilter wird mit Apache Lucene implementiert.

AutocompleteItem

Das Ergebnis von AutoVervollständigen-Anforderungen.

AutocompleteRequest

Parameter für fuzzy matching, and other autocomplete query behaviors.

AutocompleteResult

Das Ergebnis der AutoVervollständigen-Abfrage.

AzureActiveDirectoryApplicationCredentials

Anmeldeinformationen einer registrierten Anwendung, die für Ihren Suchdienst erstellt wurde und für authentifizierten Zugriff auf die im Azure Key Vault gespeicherten Verschlüsselungsschlüssel verwendet wird.

AzureBlobKnowledgeSource

Konfiguration für die Azure Blob Storage-Wissensquelle.

AzureBlobKnowledgeSourceParameters

Parameter für die Azure Blob Storage-Wissensquelle.

AzureBlobKnowledgeSourceParams

Gibt Laufzeitparameter für eine Azure Blob-Wissensquelle an

AzureMachineLearningVectorizer

Spezifiziert einen Azure Machine Learning-Endpunkt, der über den Azure AI Foundry Model Catalog bereitgestellt wird, um die Vektor-Einbettung einer Abfragezeichenkette zu erzeugen.

AzureOpenAIEmbeddingSkill

Ermöglicht es Ihnen, einen Vektoreinbettung für eine bestimmte Texteingabe mithilfe der Azure OpenAI-Ressource zu generieren.

AzureOpenAIParameters

Gibt die Parameter für die Verbindung mit der Azure OpenAI-Ressource an.

AzureOpenAIVectorizer

Enthält die Parameter, die für die Verwendung eines Azure Open AI-Diensts für die Vektorisierung zur Abfragezeit spezifisch sind.

BM25Similarity

Bewertungsfunktion basierend auf dem Okapi BM25 Ähnlichkeitsalgorithmus. BM25 ist ein TF-IDF-like-Algorithmus, der die Längennormalisierung (gesteuert durch den Parameter "b") sowie die Begriffsfrequenzsättigung (gesteuert durch den Parameter "k1") enthält.

BaseAzureMachineLearningVectorizerParameters

Gibt die Eigenschaften an, die zwischen allen AML-Vektorizer-Authentifizierungstypen gemeinsam sind.

BaseCharFilter

Basistyp für Zeichenfilter.

BaseCognitiveServicesAccount

Basistyp für die Beschreibung einer Azure AI-Dienstressource, die einem Skillset zugeordnet ist.

BaseDataChangeDetectionPolicy

Basistyp für Datenänderungserkennungsrichtlinien.

BaseDataDeletionDetectionPolicy

Basistyp für Erkennungsrichtlinien für die Datenlöschung.

BaseKnowledgeBaseActivityRecord

Basistyp für Aktivitätsdatensätze. Verfolgt Ausführungsdetails, Timing und Fehler für Wissensbasisoperationen.

BaseKnowledgeBaseMessageContent

Gibt den Typ des Nachrichteninhalts an.

BaseKnowledgeBaseModel

Gibt die Verbindungsparameter an, die das Modell für die Abfrageplanung verwenden soll.

BaseKnowledgeBaseReference

Basistyp für Referenzen.

BaseKnowledgeRetrievalReasoningEffort

Basistyp für den Schlussfolgerungsaufwand.

BaseKnowledgeSource

Stellt eine Wissensquellendefinition dar.

BaseKnowledgeSourceParams

Basistyp für Wissensquellen-Laufzeitparameter.

BaseKnowledgeSourceVectorizer

Spezifiziert die Vektorisierungsmethode, die für das Knowledge Source Embedding-Modell verwendet werden soll.

BaseLexicalAnalyzer

Basistyp für Analysegeräte.

BaseLexicalNormalizer

Basistyp für Normalisierer.

BaseLexicalTokenizer

Basistyp für Tokenizer.

BaseScoringFunction

Basistyp für Funktionen, die Dokumentergebnisse während der Rangfolge ändern können.

BaseSearchIndexerDataIdentity

Abstrakter Basistyp für Datenidentitäten.

BaseSearchIndexerSkill

Basistyp für Fähigkeiten.

BaseSearchRequestOptions

Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten.

BaseSimilarityAlgorithm

Basistyp für Ähnlichkeitsalgorithmen. Ähnlichkeitsalgorithmen werden verwendet, um Bewertungen zu berechnen, die Abfragen an Dokumente binden. Je höher die Bewertung ist, desto relevanter ist das Dokument für diese bestimmte Abfrage. Diese Bewertungen werden verwendet, um die Suchergebnisse zu bewerten.

BaseTokenFilter

Basistyp für Tokenfilter.

BaseVectorQuery

Die Abfrageparameter für Vektor- und Hybridsuchabfragen.

BaseVectorSearchAlgorithmConfiguration

Enthält konfigurationsspezifische Optionen für den Algorithmus, der während der Indizierung und/oder Abfrage verwendet wird.

BaseVectorSearchCompression

Enthält konfigurationsspezifische Optionen für die Komprimierungsmethode, die während der Indizierung oder Abfrage verwendet wird.

BaseVectorSearchVectorizer

Enthält spezifische Details für eine Vektorisierungsmethode, die während der Abfragezeit verwendet werden soll.

BinaryQuantizationCompression

Enthält konfigurationsspezifische Konfigurationsoptionen für die Komprimierungsmethode der binären Quantisierung, die während der Indizierung und Abfrage verwendet wird.

ChatCompletionResponseFormat

Bestimmt, wie die Antwort des Sprachmodells serialisiert werden soll. Der Standardwert ist 'text'.

ChatCompletionResponseFormatJsonSchemaProperties

Eigenschaften des JSON-Schema-Antwortformats.

ChatCompletionSchema

Objekt, das das benutzerdefinierte Schema definiert, das das Modell zum Strukturieren seiner Ausgabe verwendet.

ChatCompletionSkill

Eine Fähigkeit, die ein Sprachmodell über Azure AI Foundry 's Chat Completions-Endpunkt aufruft.

CjkBigramTokenFilter

Bildet Bigrams von CJK-Ausdrücken, die aus dem Standardtokenizer generiert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert.

ClassicSimilarity

Legacy-Ähnlichkeitsalgorithmus, der die Lucene TFIDFSimilarity-Implementierung von TF-IDF verwendet. Diese Variation von TF-IDF führt die Normalisierung statischer Dokumente sowie die Koordinierung von Faktoren ein, die Dokumente benachteiligen, die nur teilweise mit den durchsuchten Abfragen übereinstimmen.

ClassicTokenizer

Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente mit europäischer Sprache geeignet ist. Dieser Tokenizer wird mit Apache Lucene implementiert.

CognitiveServicesAccountKey

Der Multi-Region-Kontoschlüssel einer Azure AI-Dienstressource, die einem Skillset zugeordnet ist.

CommonGramTokenFilter

Erstellen Sie Bigrams für häufig vorkommende Ausdrücke während der Indizierung. Einzelne Begriffe sind auch weiterhin indiziert, wobei Bigrams überlagert sind. Dieser Tokenfilter wird mit Apache Lucene implementiert.

CommonModelParameters

Allgemeine Sprachmodellparameter für Chatvervollständigungen. Wenn nicht angegeben, werden Standardwerte verwendet.

CompletedSynchronizationState

Stellt den abgeschlossenen Status der letzten Synchronisierung dar.

ComplexField

Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt.

ConditionalSkill

Eine Fähigkeit, die Szenarien ermöglicht, die einen booleschen Vorgang erfordern, um die Daten zu bestimmen, die einer Ausgabe zugewiesen werden sollen.

ContentUnderstandingSkill

Eine Fähigkeit, die Azure AI Content Understanding nutzt, um strukturierte Erkenntnisse aus Dokumenten zu verarbeiten und zu extrahieren, was bereicherte, durchsuchbare Inhalte für eine verbesserte Dokumentenindexierung und -abruf ermöglicht.

ContentUnderstandingSkillChunkingProperties

Steuert die Kardinalität für das Segmentieren des Inhalts.

CorsOptions

Definiert Optionen zum Steuern der cross-Origin Resource Sharing (CORS) für einen Index.

CreateKnowledgeBaseOptions
CreateKnowledgeSourceOptions
CreateOrUpdateAliasOptions

Optionen zum Erstellen oder Aktualisieren des Aliasvorgangs.

CreateOrUpdateIndexOptions

Optionen zum Erstellen/Aktualisieren des Indexvorgangs.

CreateOrUpdateKnowledgeBaseOptions
CreateOrUpdateKnowledgeSourceOptions
CreateOrUpdateSkillsetOptions

Optionen zum Erstellen/Aktualisieren des Skillset-Vorgangs.

CreateOrUpdateSynonymMapOptions

Optionen zum Erstellen/Aktualisieren des Synonymmap-Vorgangs.

CreateorUpdateDataSourceConnectionOptions

Optionen zum Erstellen/Aktualisieren des Datenquellenvorgangs.

CreateorUpdateIndexerOptions

Optionen zum Erstellen/Aktualisieren des Indexervorgangs.

CustomAnalyzer

Ermöglicht es Ihnen, den Prozess der Konvertierung von Text in in indizierbare/durchsuchbare Token zu übernehmen. Es ist eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für das Aufteilen von Text in Token verantwortlich, und die Filter zum Ändern von Token, die vom Tokenizer ausgegeben werden.

CustomEntity

Ein Objekt, das Informationen zu den gefundenen Übereinstimmungen und verwandten Metadaten enthält.

CustomEntityAlias

Ein komplexes Objekt, das verwendet werden kann, um alternative Schreibweisen oder Synonyme für den Namen der Stammentität anzugeben.

CustomEntityLookupSkill

Eine Fähigkeit sucht nach Text aus einer benutzerdefinierten, benutzerdefinierten Liste von Wörtern und Ausdrücken.

CustomLexicalNormalizer

Ermöglicht es Ihnen, die Normalisierung für filterbare, sortierbare und facetable-Felder zu konfigurieren, die standardmäßig mit striktem Abgleich funktionieren. Dies ist eine benutzerdefinierte Konfiguration, die aus mindestens einem Filter besteht, wodurch das gespeicherte Token geändert wird.

DefaultCognitiveServicesAccount

Ein leeres Objekt, das die standardmäßige Azure AI-Dienstressource für ein Skillset darstellt.

DeleteAliasOptions

Optionen zum Löschen des Aliasvorgangs.

DeleteDataSourceConnectionOptions

Optionen zum Löschen des Datenquellenvorgangs.

DeleteIndexOptions

Optionen für den Löschindexvorgang.

DeleteIndexerOptions

Optionen zum Löschen des Indexervorgangs.

DeleteKnowledgeBaseOptions
DeleteKnowledgeSourceOptions
DeleteSkillsetOptions

Optionen zum Löschen von Skillset-Operaion.

DeleteSynonymMapOptions

Optionen zum Löschen des Synonymmap-Vorgangs.

DictionaryDecompounderTokenFilter

Dekompiliert zusammengesetzte Wörter in vielen germanischen Sprachen. Dieser Tokenfilter wird mit Apache Lucene implementiert.

DistanceScoringFunction

Definiert eine Funktion, die Bewertungen basierend auf der Entfernung von einem geografischen Standort erhöht.

DistanceScoringParameters

Stellt Parameterwerte für eine Entfernungsbewertungsfunktion bereit.

DocumentDebugInfo

Enthält Debuginformationen, die verwendet werden können, um Ihre Suchergebnisse weiter zu untersuchen.

DocumentExtractionSkill

Eine Fähigkeit, die Inhalte aus einer Datei in der Anreicherungspipeline extrahiert.

DocumentIntelligenceLayoutSkill

Eine Fähigkeit, die Inhalte und Layoutinformationen (als Markdown) über Azure AI Services aus Dateien innerhalb der Anreicherungspipeline extrahiert.

DocumentIntelligenceLayoutSkillChunkingProperties

Steuert die Kardinalität für das Segmentieren des Inhalts.

EdgeNGramTokenFilter

Generiert n Gramm der angegebenen Größe(n) beginnend von vorne oder hinten eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert.

EdgeNGramTokenizer

Tokenisiert die Eingabe von einem Rand in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mit Apache Lucene implementiert.

ElisionTokenFilter

Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Dieser Tokenfilter wird mit Apache Lucene implementiert.

EntityLinkingSkill

Mithilfe der Textanalyse-API werden verknüpfte Entitäten aus Text extrahiert.

EntityRecognitionSkill

Erkennung der Textanalyseentität.

EntityRecognitionSkillV3

Mithilfe der Textanalyse-API werden Entitäten unterschiedlicher Typen aus Text extrahiert.

ExhaustiveKnnParameters

Enthält die für den vollständigen KNN-Algorithmus spezifischen Parameter.

ExtractiveQueryAnswer

Extrahiert Antwortkandidaten aus dem Inhalt der zurückgegebenen Dokumente als Antwort auf eine Abfrage, die als Frage in natürlicher Sprache ausgedrückt wird.

ExtractiveQueryCaption

Extrahiert Beschriftungen aus den übereinstimmenden Dokumenten, die Passagen enthalten, die für die Suchabfrage relevant sind.

FacetResult

Ein einzelner Bucket eines Facetabfrageergebnisses. Meldet die Anzahl der Dokumente mit einem Feldwert, der in einen bestimmten Bereich fällt oder einen bestimmten Wert oder ein bestimmtes Intervall aufweist.

FieldMapping

Definiert eine Zuordnung zwischen einem Feld in einer Datenquelle und einem Zielfeld in einem Index.

FieldMappingFunction

Stellt eine Funktion dar, die einen Wert aus einer Datenquelle vor der Indizierung transformiert.

FreshnessScoringFunction

Definiert eine Funktion, die Bewertungen basierend auf dem Wert eines Datum-Uhrzeit-Felds erhöht.

FreshnessScoringParameters

Stellt Parameterwerte für eine Aktualitätsbewertungsfunktion bereit.

GenerativeQueryRewrites

Generieren Sie alternative Abfragebegriffe, um den Rückruf einer Suchanforderung zu erhöhen.

GetDocumentOptions

Optionen zum Abrufen eines einzelnen Dokuments.

GetKnowledgeBaseOptions
GetKnowledgeSourceOptions
GetKnowledgeSourceStatusOptions
HighWaterMarkChangeDetectionPolicy

Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen basierend auf dem Wert einer Wasserzeichenspalte erfasst.

HnswParameters

Enthält die für den Hnsw-Algorithmus spezifischen Parameter.

ImageAnalysisSkill

Eine Fähigkeit, die Bilddateien analysiert. Es extrahiert eine vielzahl von visuellen Features basierend auf dem Bildinhalt.

IndexDocumentsClient

Client für Indexdokumente

IndexDocumentsOptions

Optionen für den Indexbatchvorgang ändern.

IndexDocumentsResult

Antwort, die den Status der Vorgänge für alle Dokumente in der Indizierungsanforderung enthält.

IndexedOneLakeKnowledgeSource

Konfiguration für die OneLake-Wissensquelle.

IndexedOneLakeKnowledgeSourceParameters

Parameter für die OneLake-Wissensquelle.

IndexedOneLakeKnowledgeSourceParams

Gibt Laufzeitparameter für eine indizierte OneLake-Wissensquelle an.

IndexerExecutionResult

Stellt das Ergebnis einer einzelnen Indexerausführung dar.

IndexingParameters

Stellt Parameter für die Indizierungsausführung dar.

IndexingParametersConfiguration

Ein Wörterbuch mit indexerspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen.

IndexingResult

Status eines Indizierungsvorgangs für ein einzelnes Dokument.

IndexingSchedule

Stellt einen Zeitplan für die Indizierungsausführung dar.

InputFieldMappingEntry

Eingabefeldzuordnung für eine Fähigkeit.

KeepTokenFilter

Ein Tokenfilter, der Token nur mit Text in einer angegebenen Liste von Wörtern speichert. Dieser Tokenfilter wird mit Apache Lucene implementiert.

KeyAuthAzureMachineLearningVectorizerParameters

Gibt die Eigenschaften für die Verbindung mit einem AML-Vektorizer mit einem Authentifizierungsschlüssel an.

KeyPhraseExtractionSkill

Eine Fähigkeit, die Textanalyse für die Extraktion von Schlüsselausdrücken verwendet.

KeywordMarkerTokenFilter

Markiert Ausdrücke als Schlüsselwörter. Dieser Tokenfilter wird mit Apache Lucene implementiert.

KeywordTokenizer

Gibt die gesamte Eingabe als einzelnes Token aus. Dieser Tokenizer wird mit Apache Lucene implementiert.

KnowledgeBase
KnowledgeBaseAgenticReasoningActivityRecord

Stellt einen Aktivitätsdatensatz für agentisches Denken dar.

KnowledgeBaseAzureBlobReference

Stellt eine Azure Blob Storage-Dokumentreferenz dar.

KnowledgeBaseAzureOpenAIModel

Gibt die Azure OpenAI-Ressource an, die für die Abfrageplanung verwendet wird.

KnowledgeBaseErrorAdditionalInfo

Der Ressourcenverwaltungsfehler zusätzliche Informationen.

KnowledgeBaseErrorDetail

Die Fehlerdetails.

KnowledgeBaseIndexedOneLakeReference

Stellt eine indexierte OneLake-Dokumentreferenz dar.

KnowledgeBaseMessage

Das Nachrichtenstilobjekt in natürlicher Sprache.

KnowledgeBaseMessageImageContent

Typ der Bildnachricht.

KnowledgeBaseMessageImageContentImage

Bildinhalt.

KnowledgeBaseMessageTextContent

Art der Textnachricht.

KnowledgeBaseModelWebSummarizationActivityRecord

Repräsentiert einen LLM-Webzusammenfassungsaktivitätseintrag.

KnowledgeBaseRetrievalRequest

Der Eingabevertrag für den Abrufauftrag.

KnowledgeBaseRetrievalResponse

Der Ausgabevertrag für die Abrufantwort.

KnowledgeBaseSearchIndexReference

Stellt eine Azure Search-Dokumentreferenz dar.

KnowledgeBaseWebReference

Stellt einen Verweis auf ein Webdokument dar.

KnowledgeRetrievalClientOptions

Clientoptionen, die zum Konfigurieren von API-Anforderungen für die kognitive Suche verwendet werden.

KnowledgeRetrievalIntent

Eine beabsichtigte Abfrage, die ohne Modellabfrageplanung ausgeführt werden soll.

KnowledgeRetrievalMinimalReasoningEffort

Führen Sie den Wissensabruf mit minimalem Argumentationsaufwand durch.

KnowledgeRetrievalSemanticIntent

Eine semantische Abfrageabsicht.

KnowledgeSourceAzureOpenAIVectorizer

Gibt die Azure OpenAI-Ressource an, die zum Vektorisieren einer Abfragezeichenfolge verwendet wird.

KnowledgeSourceIngestionParameters

Konsolidiert alle allgemeinen Erfassungseinstellungen für Wissensquellen.

KnowledgeSourceReference

Verweise auf eine Wissensquelle.

KnowledgeSourceStatistics

Statistische Informationen über den Verlauf der Synchronisierung von Wissensquellen.

KnowledgeSourceStatus

Stellt den Status und den Synchronisierungsverlauf einer Wissensquelle dar.

KnowledgeSourceSynchronizationError

Repräsentiert einen Dokumenten-Indexierungsfehler, der während eines Wissensquellen-Synchronisationslaufs aufgetreten ist.

LanguageDetectionSkill

Eine Fähigkeit, die sprache des Eingabetexts zu erkennen und meldet einen einzigen Sprachcode für jedes Dokument, das auf der Anforderung übermittelt wurde. Der Sprachcode wird mit einer Bewertung gekoppelt, die die Konfidenz der Analyse angibt.

LengthTokenFilter

Entfernt Wörter, die zu lang oder zu kurz sind. Dieser Tokenfilter wird mit Apache Lucene implementiert.

LimitTokenFilter

Beschränkt die Anzahl der Token während der Indizierung. Dieser Tokenfilter wird mit Apache Lucene implementiert.

ListKnowledgeBasesOptions
ListKnowledgeSourcesOptions
ListSearchResultsPageSettings

Argumente zum Abrufen der nächsten Seite der Suchergebnisse.

LuceneStandardAnalyzer

Standard Apache Lucene Analyzer; Zusammengesetzt aus dem Standardmäßigen Tokenizer, Kleinbuchstabenfilter und Stoppfilter.

LuceneStandardTokenizer

Umbricht Text nach den Unicode-Textsegmentierungsregeln. Dieser Tokenizer wird mit Apache Lucene implementiert.

MagnitudeScoringFunction

Definiert eine Funktion, die Bewertungen basierend auf der Größe eines numerischen Felds erhöht.

MagnitudeScoringParameters

Stellt Parameterwerte für eine Bewertungsfunktion der Größe bereit.

MappingCharFilter

Ein Zeichenfilter, der Zuordnungen anwendet, die mit der Zuordnungsoption definiert sind. Der Abgleich ist gierig (längster Musterabgleich bei einem bestimmten Punkt gewinnt). Ersetzung darf die leere Zeichenfolge sein. Dieser Zeichenfilter wird mit Apache Lucene implementiert.

MergeSkill

Eine Fähigkeit zum Zusammenführen von zwei oder mehr Zeichenfolgen in einer einzigen einheitlichen Zeichenfolge mit einem optionalen benutzerdefinierten Trennzeichen, das jeden Komponententeil trennt.

MicrosoftLanguageStemmingTokenizer

Dividiert Text mithilfe von sprachspezifischen Regeln und reduziert Wörter auf ihre Basisformulare.

MicrosoftLanguageTokenizer

Dividiert Text mithilfe sprachspezifischer Regeln.

NGramTokenFilter

Generiert n Gramm der angegebenen Größe(n). Dieser Tokenfilter wird mit Apache Lucene implementiert.

NGramTokenizer

Tokenisiert die Eingabe in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mit Apache Lucene implementiert.

NativeBlobSoftDeleteDeletionDetectionPolicy

Definiert eine Datenlöscherkennungsrichtlinie, die das systemeigene Feature für das vorläufige Löschen von Azure Blob Storage für die Löscherkennung verwendet.

NoAuthAzureMachineLearningVectorizerParameters

Gibt die Eigenschaften für die Verbindung mit einem AML-Vektorizer ohne Authentifizierung an.

OcrSkill

Eine Fähigkeit, die Text aus Bilddateien extrahiert.

OutputFieldMappingEntry

Ausgabefeldzuordnung für eine Fähigkeit.

PIIDetectionSkill

Mithilfe der Textanalyse-API werden persönliche Informationen aus einem Eingabetext extrahiert und sie maskieren können.

PageSettings

Optionen für die byPage-Methode

PagedAsyncIterableIterator

Eine Schnittstelle, die eine asynchrone iterierbare Iteration sowohl zum Abschluss als auch nach Seite ermöglicht.

PathHierarchyTokenizer

Tokenizer für pfadähnliche Hierarchien. Dieser Tokenizer wird mit Apache Lucene implementiert.

PatternAnalyzer

Trennt Text flexibel in Ausdrücke über ein Muster mit regulären Ausdrücken. Dieser Analyzer wird mit Apache Lucene implementiert.

PatternCaptureTokenFilter

Verwendet Java regexes, um mehrere Token auszugeben – eine für jede Aufnahmegruppe in einem oder mehreren Mustern. Dieser Tokenfilter wird mit Apache Lucene implementiert.

PatternReplaceCharFilter

Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Es verwendet einen regulären Ausdruck, um Zeichenabfolgen zu identifizieren, die beibehalten werden sollen, und ein Ersetzungsmuster, um zu ersetzende Zeichen zu identifizieren. Wenn Sie beispielsweise den Eingabetext "aa bb aa bb", das Muster "(aa)\s+(bb)" und den Ersatz "$1#$2" erhalten haben, lautet das Ergebnis "aa#bb aa#bb aa#bb". Dieser Zeichenfilter wird mit Apache Lucene implementiert.

PatternReplaceTokenFilter

Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Es verwendet einen regulären Ausdruck, um Zeichenabfolgen zu identifizieren, die beibehalten werden sollen, und ein Ersetzungsmuster, um zu ersetzende Zeichen zu identifizieren. Wenn Sie beispielsweise den Eingabetext "aa bb aa bb", das Muster "(aa)\s+(bb)" und den Ersatz "$1#$2" erhalten haben, lautet das Ergebnis "aa#bb aa#bb aa#bb". Dieser Tokenfilter wird mit Apache Lucene implementiert.

PatternTokenizer

Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Dieser Tokenizer wird mit Apache Lucene implementiert.

PhoneticTokenFilter

Erstellen Sie Token für phonetische Übereinstimmungen. Dieser Tokenfilter wird mit Apache Lucene implementiert.

QueryAnswerResult

Eine Antwort ist eine Textpassage, die aus dem Inhalt der relevantesten Dokumente extrahiert wurde, die der Abfrage entsprechen. Antworten werden aus den wichtigsten Suchergebnissen extrahiert. Antwortkandidaten werden bewertet, und die wichtigsten Antworten werden ausgewählt.

QueryCaptionResult

Beschriftungen sind die repräsentativsten Passagen aus dem Dokument relativ zur Suchabfrage. Sie werden häufig als Dokumentzusammenfassung verwendet. Beschriftungen werden nur für Abfragen vom Typ semanticzurückgegeben.

QueryResultDocumentSemanticField

Beschreibung von Feldern, die an den semantischen Anreicherungsprozess gesendet wurden, sowie deren Verwendung

QueryResultDocumentSubscores

Die Aufschlüsselung von Teilergebnissen zwischen den Text- und Vektorabfragekomponenten der Suchabfrage für dieses Dokument. Jede Vektorabfrage wird als separates Objekt in derselben Reihenfolge angezeigt, in der sie empfangen wurden.

RescoringOptions

Enthält die Optionen für die Korrektur.

ResourceCounter

Stellt die Verwendung und das Kontingent einer Ressource dar.

RetrieveOptions
ScalarQuantizationCompression

Enthält Konfigurationsoptionen, die spezifisch für die skalare Quantisierungskomprimierungsmethode sind, die während der Indizierung und Abfrage verwendet wird.

ScalarQuantizationParameters

Enthält die parameter, die für die Skalar quantization spezifisch sind.

ScoringProfile

Definiert Parameter für einen Suchindex, der die Bewertung in Suchabfragen beeinflusst.

SearchAlias

Stellt einen Indexalias dar, der eine Zuordnung vom Aliasnamen zu einem Index beschreibt. Der Aliasname kann anstelle des Indexnamens für unterstützte Vorgänge verwendet werden.

SearchClientOptions

Clientoptionen, die zum Konfigurieren von AI Search API-Anforderungen verwendet werden.

SearchDocumentsPageResult

Antwort, die Suchergebnisse aus einem Index enthält.

SearchDocumentsResult

Antwort, die Suchergebnisse aus einem Index enthält.

SearchDocumentsResultBase

Antwort, die Suchergebnisse aus einem Index enthält.

SearchIndex

Stellt eine Suchindexdefinition dar, die die Felder und das Suchverhalten eines Indexes beschreibt.

SearchIndexClientOptions

Clientoptionen, die zum Konfigurieren von AI Search API-Anforderungen verwendet werden.

SearchIndexFieldReference

Feldreferenz für einen Suchindex.

SearchIndexKnowledgeSource

Wissensquelle, die auf einen Suchindex abzielt.

SearchIndexKnowledgeSourceParameters

Parameter für die Wissensquelle für den Suchindex.

SearchIndexKnowledgeSourceParams

Gibt Laufzeitparameter für eine Wissensquelle für Suchindex an

SearchIndexStatistics

Statistiken für einen bestimmten Index. Statistiken werden regelmäßig gesammelt und sind nicht garantiert immer up-to-datum.

SearchIndexer

Stellt einen Indexer dar.

SearchIndexerClientOptions

Clientoptionen, die zum Konfigurieren von AI Search API-Anforderungen verwendet werden.

SearchIndexerDataContainer

Stellt Informationen zur Entität (z. B. Azure SQL-Tabelle oder CosmosDB-Auflistung) dar, die indiziert wird.

SearchIndexerDataNoneIdentity

Löscht die Identitätseigenschaft einer Datenquelle.

SearchIndexerDataSourceConnection

Stellt eine Datenquellendefinition dar, die zum Konfigurieren eines Indexers verwendet werden kann.

SearchIndexerDataUserAssignedIdentity

Gibt die Identität für eine zu verwendende Datenquelle an.

SearchIndexerError

Stellt einen Indizierungsfehler auf Element- oder Dokumentebene dar.

SearchIndexerIndexProjection

Definition zusätzlicher Projektionen für sekundäre Suchindizes.

SearchIndexerIndexProjectionParameters

Ein Wörterbuch mit indexprojektionsspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen.

SearchIndexerIndexProjectionSelector

Beschreibung, welche Daten im angegebenen Suchindex gespeichert werden sollen.

SearchIndexerKnowledgeStore

Definition zusätzlicher Projektionen für Azure Blob, Tabelle oder Dateien mit erweiterten Daten.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Abstrakte Klasse zum Freigeben von Eigenschaften zwischen betonen Selektoren.

SearchIndexerKnowledgeStoreFileProjectionSelector

Projektionsdefinition für die Daten, die in Azure Files gespeichert werden sollen.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Projektionsdefinition für die Daten, die in Azure Blob gespeichert werden sollen.

SearchIndexerKnowledgeStoreParameters

Ein Wörterbuch mit Wissensspeicher-spezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen Grundtyp aufweisen.

SearchIndexerKnowledgeStoreProjection

Containerobjekt für verschiedene Projektionsmarkierer.

SearchIndexerKnowledgeStoreProjectionSelector

Abstrakte Klasse zum Freigeben von Eigenschaften zwischen betonen Selektoren.

SearchIndexerKnowledgeStoreTableProjectionSelector

Beschreibung, welche Daten in Azure-Tabellen gespeichert werden sollen.

SearchIndexerLimits

Repräsentiert die Grenzwerte, die auf einen Indexer angewendet werden können.

SearchIndexerSkillset

Eine Liste der Fähigkeiten.

SearchIndexerStatus

Stellt den aktuellen Status und den Ausführungsverlauf eines Indexers dar.

SearchIndexerWarning

Stellt eine Warnung auf Elementebene dar.

SearchIndexingBufferedSenderOptions

Optionen für SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Ein vom Kunden verwalteter Verschlüsselungsschlüssel im Azure Key Vault. Schlüssel, die Sie erstellen und verwalten, können zum Verschlüsseln oder Entschlüsseln von ruhenden Daten in Azure KI-Suche verwendet werden, z. B. Indizes und Synonymzuordnungen.

SearchServiceStatistics

Antwort von einer Anforderung zum Abrufen von Dienststatistiken. Wenn dies erfolgreich ist, enthält es Leistungsindikatoren und Grenzwerte auf Serviceebene.

SemanticConfiguration

Definiert eine bestimmte Konfiguration, die im Kontext der semantischen Funktionen verwendet werden soll.

SemanticDebugInfo

Debugoptionen für semantische Suchabfragen.

SemanticField

Ein Feld, das als Teil der semantischen Konfiguration verwendet wird.

SemanticPrioritizedFields

Beschreibt die Felder "Titel", "Inhalt" und "Schlüsselwörter", die für semantische Rangfolge, Beschriftungen, Hervorhebungen und Antworten verwendet werden sollen.

SemanticSearch

Definiert Parameter für einen Suchindex, der die semantischen Funktionen beeinflusst.

SemanticSearchOptions

Definiert Optionen für semantische Suchabfragen

SentimentSkill

Textanalyse positive negative Stimmungsanalyse, bewertet als Gleitkommawert in einem Bereich von Null bis 1.

SentimentSkillV3

Mithilfe der Textanalyse-API werden unstrukturierter Text ausgewertet und für jeden Datensatz Stimmungsbezeichnungen (z. B. "negativ", "neutral" und "positiv") basierend auf dem höchsten Konfidenzwert bereitgestellt, der vom Dienst auf Satz- und Dokumentebene gefunden wird.

ServiceCounters

Stellt Ressourcenzähler und Kontingente auf Dienstebene dar.

ServiceLimits

Stellt verschiedene Grenzwerte für Dienstebene dar.

ShaperSkill

Eine Fähigkeit zum Umgestalten der Ausgaben. Er erstellt einen komplexen Typ zur Unterstützung zusammengesetzter Felder (auch als mehrteilige Felder bezeichnet).

ShingleTokenFilter

Erstellt Kombinationen von Token als einzelnes Token. Dieser Tokenfilter wird mit Apache Lucene implementiert.

SimpleField

Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt.

SingleVectorFieldResult

Ein einzelnes Vektorfeldergebnis. Beides

SnowballTokenFilter

Ein Filter, der Wörter mit einem snowball-generierten Stammer abstammt. Dieser Tokenfilter wird mit Apache Lucene implementiert.

SoftDeleteColumnDeletionDetectionPolicy

Definiert eine Datenlöscherkennungsrichtlinie, die eine Strategie für das vorläufige Löschen implementiert. Es bestimmt, ob ein Element basierend auf dem Wert einer festgelegten Spalte "vorläufiges Löschen" gelöscht werden soll.

SplitSkill

Eine Fähigkeit, eine Zeichenfolge in Textblöcke aufzuteilen.

SqlIntegratedChangeTrackingPolicy

Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen mithilfe des Integrierten Änderungsnachverfolgungsfeatures von Azure SQL-Datenbank erfasst.

StemmerOverrideTokenFilter

Bietet die Möglichkeit, andere Wortstammfilter mit benutzerwörterbuchbasierter Wortstammerkennung außer Kraft zu setzen. Alle wörterbuchstammigen Begriffe werden als Schlüsselwörter markiert, sodass sie nicht mit Stemmern in der Kette gestammt werden. Muss vor allen Stemmingfiltern platziert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html.

StemmerTokenFilter

Sprachspezifischer Wortstammfilter. Dieser Tokenfilter wird mit Apache Lucene implementiert. Siehe https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters.

StopAnalyzer

Dividiert Text in Nichtbuchstaben; Wendet die Tokenfilter in Kleinbuchstaben und Stoppwörtern an. Dieser Analyzer wird mit Apache Lucene implementiert.

StopwordsTokenFilter

Entfernt Stoppwörter aus einem Tokendatenstrom. Dieser Tokenfilter wird mit Apache Lucene implementiert. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html.

SuggestDocumentsResult

Antwort, die Vorschlagsabfrageergebnisse aus einem Index enthält.

SuggestRequest

Parameter zum Filtern, Sortieren, Fuzzyabgleich und andere Vorschläge abfrageverhalten.

Suggester

Definiert, wie die Vorschlags-API auf eine Gruppe von Feldern im Index angewendet werden soll.

SynchronizationState

Stellt den aktuellen Status einer laufenden Synchronisierung dar, die sich über mehrere Indexerausführungen erstreckt.

SynonymMap

Stellt eine Synonymzuordnungsdefinition dar.

SynonymTokenFilter

Gleicht ein- oder mehrere Wort-Synonyme in einem Tokendatenstrom ab. Dieser Tokenfilter wird mit Apache Lucene implementiert.

TagScoringFunction

Definiert eine Funktion, die Die Bewertungen von Dokumenten mit Zeichenfolgenwerten erhöht, die einer bestimmten Liste von Tags entsprechen.

TagScoringParameters

Stellt Parameterwerte für eine Tagbewertungsfunktion bereit.

TextResult

Die BM25- oder Classic-Bewertung für den Textbereich der Abfrage.

TextTranslationSkill

Eine Fähigkeit zum Übersetzen von Text aus einer Sprache in eine andere.

TextWeights

Definiert Gewichtungen für Indexfelder, für die Übereinstimmungen die Bewertung in Suchabfragen erhöhen sollen.

TokenAuthAzureMachineLearningVectorizerParameters

Gibt die Eigenschaften für die Verbindung mit einem AML-Vektorizer mit einer verwalteten Identität an.

TruncateTokenFilter

Schneidet die Begriffe auf eine bestimmte Länge ab. Dieser Tokenfilter wird mit Apache Lucene implementiert.

UaxUrlEmailTokenizer

Tokenisiert URLs und E-Mails als ein Token. Dieser Tokenizer wird mit Apache Lucene implementiert.

UniqueTokenFilter

Filtert Token mit demselben Text wie das vorherige Token aus. Dieser Tokenfilter wird mit Apache Lucene implementiert.

VectorSearch

Enthält Konfigurationsoptionen im Zusammenhang mit der Vektorsuche.

VectorSearchOptions

Definiert Optionen für Vektorsuchabfragen

VectorSearchProfile

Definiert eine Kombination von Konfigurationen, die mit der Vektorsuche verwendet werden sollen.

VectorizableImageBinaryQuery

Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn eine base64-codierte Binärdatei eines Bilds bereitgestellt wird, das vektorisiert werden muss.

VectorizableImageUrlQuery

Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn eine URL, die einen Bildwert darstellt, der vektorisiert werden muss, bereitgestellt wird.

VectorizableTextQuery

Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn ein Textwert bereitgestellt wird, der vektorisiert werden muss.

VectorizedQuery

Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn ein unformatierter Vektorwert bereitgestellt wird.

VectorsDebugInfo

"Enthält Debugging-Informationen, die spezifisch für Vektor- und Hybridsuche sind.")

WebApiParameters

Gibt die Eigenschaften für die Verbindung mit einem benutzerdefinierten Vektorizer an.

WebApiSkill

Eine Fähigkeit, die einen Web-API-Endpunkt aufrufen kann, sodass Sie ein Skillset erweitern können, indem Sie ihren benutzerdefinierten Code aufrufen.

WebApiVectorizer

Gibt einen benutzerdefinierten Vektorizer zum Generieren des Vektoreinbettungs einer Abfragezeichenfolge an. Die Integration eines externen Vektorizers erfolgt mithilfe der benutzerdefinierten Web-API-Schnittstelle eines Skillsets.

WebKnowledgeSource

Wissensquelle, die auf Webergebnisse abzielt.

WebKnowledgeSourceDomain

Konfiguration für die Web-Wissensquellendomäne.

WebKnowledgeSourceDomains

Konfiguration der Domäne für Web-Wissensquelle zulassen/blockieren.

WebKnowledgeSourceParameters

Parameter für die Web-Wissensquelle.

WebKnowledgeSourceParams

Gibt Laufzeitparameter für eine Webwissensquelle an

WordDelimiterTokenFilter

Teilt Wörter in Unterwörter auf und führt optionale Transformationen für Unterwortgruppen aus. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Typaliase

AIFoundryModelCatalogName

Der Name des Embedding-Modells aus dem Azure AI Foundry Catalog, das genannt wird.
KnownAIFoundryModelCatalogName kann austauschbar mit AIFoundryModelCatalogName verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32: OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32
OpenAI-CLIP-Bild-Text-Embeddings-ViT-Large-Patch14-336: OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336
Facebook-DinoV2-Image-Embeddings-ViT-Base: Facebook-DinoV2-Image-Embeddings-ViT-Base
Facebook-DinoV2-Image-Embeddings-ViT-Giant: Facebook-DinoV2-Image-Embeddings-ViT-Giant
Cohere-embed-v3-english: Cohere-embed-v3-english
Cohere-embed-v3-mehrsprachig: Cohere-embed-v3-mehrsprachig
Cohere-embed-v4: Cohere Embed v4-Modell zum Generieren von Einbettungen aus Text und Bildern.

AliasIterator

Ein Iterator zum Auflisten der Aliase, die im Suchdienst vorhanden sind. Dadurch werden Anforderungen bei Bedarf während der Iteration vorgenommen. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen.

AnalyzeTextOptions

Optionen für die Textanalyse.

AutocompleteMode

Gibt den Modus für die automatische Vervollständigung an. Der Standardwert ist 'oneTerm'. Verwenden Sie 'twoTerms', um Gürtelrose abzurufen, und 'oneTermWithContext', um den aktuellen Kontext bei der Erstellung von Autovervollständigungsbegriffen zu verwenden.

AutocompleteOptions

Optionen zum Abrufen von Abschlusstext für einen teilweisen SearchText.

AzureMachineLearningVectorizerParameters

Gibt die Eigenschaften für die Verbindung mit einem AML-Vektorizer an.

AzureOpenAIModelName

Der Name des Azure Open AI-Modells, der aufgerufen wird.
KnownAzureOpenAIModelName austauschbar mit AzureOpenAIModelName verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

text-embedding-ada-002: TextEmbeddingAda002-Modell.
text-embedding-3-large: TextEmbedding3Large Modell.
text-embedding-3-small: TextEmbedding3Small-Modell.
GPT-5-Mini: Gpt5Mini-Modell.
GPT-5-nano: Gpt5Nano-Modell.
GPT-5.4-Mini: Gpt54Mini-Modell.
GPT-5.4-nano: Gpt54Nano-Modell.

BaseKnowledgeRetrievalIntent

Alias für KnowledgeRetrievalIntentUnion

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Enthält die möglichen Fälle für CharFilter.

CharFilterName

Definiert die Namen aller Zeichenfilter, die von der Suchmaschine unterstützt werden.
<xref:KnownCharFilterName> austauschbar mit CharFilterName verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

html_strip: Ein Zeichenfilter, der versucht, HTML-Konstrukte zu entfernen. Siehe https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html.

ChatCompletionExtraParametersBehavior

Spezifiziert, wie 'extraParameters' von Azure AI Foundry behandelt werden sollen. Der Standardwert ist 'error'.
KnownChatCompletionExtraParametersBehavior kann austauschbar mit ChatCompletionExtraParametersBehavior verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

passThrough: Übergibt alle zusätzlichen Parameter direkt an das Modell.
drop: Löscht alle zusätzlichen Parameter.
error: Löst einen Fehler aus, wenn ein zusätzlicher Parameter vorhanden ist.

ChatCompletionResponseFormatType

Gibt an, wie der LLM die Antwort formatieren soll.
KnownChatCompletionResponseFormatType kann austauschbar mit ChatCompletionResponseFormatType verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

Text: Einfachtext-Antwortformat.
jsonObject: Beliebiges JSON-Objektantwortformat.
jsonSchema: JSON-schema-treues Antwortformat.

CjkBigramTokenFilterScripts

Skripts, die von CjkBigramTokenFilter ignoriert werden können.

CognitiveServicesAccount

Enthält die möglichen Fälle für CognitiveServicesAccount.

ComplexDataType

Definiert Werte für ComplexDataType. Mögliche Werte sind: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

ContentUnderstandingSkillChunkingUnit

Steuert die Kardinalität der Blockeinheit. Standard sind 'Charaktere'
KnownContentUnderstandingSkillChunkingUnit kann austauschbar mit ContentUnderstandingSkillChunkingUnit verwendet werden; dieses Enum enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

characters: Gibt Chunk by Character an.

ContentUnderstandingSkillExtractionOptions

Steuert die Kardinalität des Inhalts, der vom Skill aus dem Dokument extrahiert wird.
KnownContentUnderstandingSkillExtractionOptions können austauschbar mit ContentUnderstandingSkillExtractionOptions verwendet werden; dieses Enum enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

images: Geben Sie an, dass Bildinhalte aus dem Dokument extrahiert werden sollen.
locationMetadata: Geben Sie an, dass Standortmetadaten aus dem Dokument extrahiert werden sollen.

ContinuablePage

Eine Schnittstelle, die eine Seite mit Ergebnissen beschreibt.

CountDocumentsOptions

Optionen zum Ausführen des Zählungsvorgangs für den Index.

CreateAliasOptions

Optionen zum Erstellen eines Aliasvorgangs.

CreateDataSourceConnectionOptions

Optionen zum Erstellen des Datenquellenvorgangs.

CreateIndexOptions

Optionen zum Erstellen eines Indexvorgangs.

CreateIndexerOptions

Optionen zum Erstellen eines Indexervorgangs.

CreateSkillsetOptions

Optionen zum Erstellen von Skillset-Vorgängen.

CreateSynonymMapOptions

Optionen zum Erstellen eines Synonymmap-Vorgangs.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Enthält die möglichen Fälle für DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Enthält die möglichen Fälle für DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Optionen für den Vorgang zum Löschen von Dokumenten.

DocumentIntelligenceLayoutSkillChunkingUnit

Steuert die Kardinalität der Blockeinheit. Standard sind 'Charaktere'
KnownDocumentIntelligenceLayoutSkillChunkingUnit kann austauschbar mit DocumentIntelligenceLayoutSkillChunkingUnit verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

characters: Gibt Chunk by Character an.

DocumentIntelligenceLayoutSkillExtractionOptions

Steuert die Kardinalität des Inhalts, der vom Skill aus dem Dokument extrahiert wird.
KnownDocumentIntelligenceLayoutSkillExtractionOptions kann austauschbar mit DocumentIntelligenceLayoutSkillExtractionOptions verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

images: Geben Sie an, dass Bildinhalte aus dem Dokument extrahiert werden sollen.
locationMetadata: Geben Sie an, dass Standortmetadaten aus dem Dokument extrahiert werden sollen.

DocumentIntelligenceLayoutSkillMarkdownHeaderDepth

Die Tiefe der Kopfzeilen in der Markdownausgabe. Der Standardwert ist h6.
KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth kann austauschbar mit DocumentIntelligenceLayoutSkillMarkdownHeaderDepth verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

h1: Kopfebene 1.
h2: Kopfebene 2.
h3: Kopfebene 3.
h4: Kopfebene 4.
h5: Kopfebene 5.
h6: Kopfebene 6.

DocumentIntelligenceLayoutSkillOutputFormat

Steuert die Kardinalität des Ausgabeformats. Der Standardwert ist 'markdown'.
KnownDocumentIntelligenceLayoutSkillOutputFormat kann austauschbar mit DocumentIntelligenceLayoutSkillOutputFormat verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

text: Geben Sie das Format der Ausgabe als Text an.
markdown: Geben Sie das Format der Ausgabe als markdown an.

DocumentIntelligenceLayoutSkillOutputMode

Steuert die Kardinalität der Ausgabe, die von der Fähigkeit erzeugt wird. Der Standardwert ist "oneToMany".
KnownDocumentIntelligenceLayoutSkillOutputMode kann austauschbar mit DocumentIntelligenceLayoutSkillOutputMode verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

oneToMany: Geben Sie an, dass die Ausgabe als 'oneToMany' analysiert werden soll.

EdgeNGramTokenFilterSide

Gibt an, von welcher Seite der Eingabe ein N-Gramm generiert werden soll.

EntityCategory

Eine Zeichenfolge, die angibt, welche Entitätskategorien zurückgegeben werden sollen.
KnownEntityCategory kann austauschbar mit EntityCategory verwendet werden; dieses Enum enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

Ort: Entitäten, die einen physischen Ort beschreiben.
Organisation: Entitäten, die eine Organisation beschreiben.
Person: Entitäten, die eine Person beschreiben.
Quantität: Entitäten, die eine Menge beschreiben.
Datumszeit: Entitäten, die ein Datum und eine Uhrzeit beschreiben.
URL: Entitäten, die eine URL beschreiben.
E-Mail: Entitäten, die eine E-Mail-Adresse beschreiben.

EntityRecognitionSkillLanguage

Die Sprachcodes, die von EntityRecognitionSkill für Eingabetext unterstützt werden.
KnownEntityRecognitionSkillLanguage kann austauschbar mit EntityRecognitionSkillLanguage verwendet werden; dieses Enum enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

ar: Arabisch
CS: Tschechisch
zh-Hans: Chinese-Simplified
zh-Hant: Chinese-Traditional
da: Dänisch
nl: Niederländisch
Englisch: Englisch
fi: Finnisch
fr: Französisch
de: Deutsch
el: Griechisch
hu: Ungarisch
it: Italienisch
ja: Japanisch
ko: Koreanisch
nein: Norwegisch (Bokmaal)
pl: Polnisch
pt-PT: Portugiesisch (Portugal)
pt-BR: Portugiesisch (Brasilien)
ru: Russisch
es: Spanisch
sv: Schwedisch
tr: Türkisch

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Enthält Konfigurationsoptionen, die spezifisch für den vollständigen KNN-Algorithmus sind, der während der Abfrage verwendet wird, wodurch die Brute-Force-Suche im gesamten Vektorindex ausgeführt wird.

ExtractDocumentKey
GetAliasOptions

Optionen zum Abrufen des Aliasvorgangs.

GetDataSourceConnectionOptions

Optionen zum Abrufen des Datenquellenvorgangs.

GetIndexOptions

Optionen zum Abrufen des Indexvorgangs.

GetIndexStatisticsOptions

Optionen zum Abrufen des Indexstatistikvorgangs.

GetIndexerOptions

Optionen zum Abrufen des Indexervorgangs.

GetIndexerStatusOptions

Optionen zum Abrufen des Indexerstatusvorgangs.

GetServiceStatisticsOptions

Optionen zum Abrufen des Dienststatistikvorgangs.

GetSkillSetOptions

Optionen zum Abrufen des Skillset-Vorgangs.

GetSynonymMapsOptions

Optionen zum Abrufen des Synonymmaps-Vorgangs.

HnswAlgorithmConfiguration

Enthält Konfigurationsoptionen, die spezifisch für den hnsw näheren Nachbaralgorithmus sind, der während der Indizierungszeit verwendet wird.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Der Vorgang, der für ein Dokument in einem Indizierungsbatch ausgeführt werden soll.

IndexDocumentsAction

Stellt eine Indexaktion dar, die auf einem Dokument ausgeführt wird.

IndexIterator

Ein Iterator zum Auflisten der Indizes, die im Suchdienst vorhanden sind. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen.

IndexNameIterator

Ein Iterator zum Auflisten der Indizes, die im Suchdienst vorhanden sind. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen.

IndexProjectionMode

Definiert das Verhalten der Indexprojektionen in Bezug auf den Rest des Indexers.
KnownIndexProjectionMode- austauschbar mit IndexProjectionMode verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

skipIndexingParentDocuments: Das Quelldokument wird vom Schreiben in den Zielindex des Indexers übersprungen.
includeIndexingParentDocuments: Das Quelldokument wird in den Zielindex des Indexers geschrieben. Dies ist das Standardmuster.

IndexerExecutionEnvironment
IndexerExecutionStatus

Stellt den Status einer einzelnen Indexerausführung dar.

IndexerResyncOption

Optionen mit verschiedenen Arten von Berechtigungsdaten zum Indizieren.
KnownIndexerResyncOption kann austauschbar mit IndexerResyncOption verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

Berechtigungen: Indexer zum erneuten Erfassen von vorab ausgewählten Berechtigungsdaten aus der Datenquelle in den Index.

IndexerStatus

Stellt den Gesamtstatus des Indexers dar.

KeyPhraseExtractionSkillLanguage
KnowledgeBaseActivityRecord

Alias für KnowledgeBaseActivityRecordUnion

KnowledgeBaseActivityRecordType

Die Art der Aktivitätsaufzeichnung.
<xref:KnownKnowledgeBaseActivityRecordType> kann austauschbar mit KnowledgeBaseActivityRecordType verwendet werden, enthält dieses Enum die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

searchIndex: Suchindex-Abrufaktivität.
azureBlob: Azure Blob-Rückrufaktivität.
indexedOneLake: Indexierte OneLake-Rückholaktivität.
Web: Web-Abruf-Aktivität.
modelWebSummarization: LLM-Webzusammenfassungs-Aktivität.
agentisches Denken: Aktivität des agentischen Denkens.

KnowledgeBaseIterator

Ein Iterator zur Auflistung der Wissensdatenbanken, die im Suchdienst existieren. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen.

KnowledgeBaseMessageContent

Alias für KnowledgeBaseMessageContentUnion

KnowledgeBaseMessageContentType

Die Art des Nachrichteninhalts.
<xref:KnownKnowledgeBaseMessageContentType> kann austauschbar mit KnowledgeBaseMessageContentType verwendet werden, enthält dieses Enum die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

Text: Textnachrichten-Inhalt.
Bild: Bildnachrichten-Inhalt.

KnowledgeBaseModel
KnowledgeBaseModelKind

Das KI-Modell, das für die Abfrageplanung verwendet werden soll.
KnownKnowledgeBaseModelKind kann austauschbar mit KnowledgeBaseModelKind verwendet werden; dieses Enum enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

azureOpenAI: Verwenden Sie Azure Open-AI-Modelle für Abfrageplanung.

KnowledgeBaseReference

Alias für KnowledgeBaseReferenceUnion

KnowledgeBaseReferenceType

Der Verweistyp.
<xref:KnownKnowledgeBaseReferenceType> kann austauschbar mit KnowledgeBaseReferenceType verwendet werden, dieses Enum enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

searchIndex: Suchindex Dokumentreferenz.
azureBlob: Azure Blob-Dokumentreferenz.
indexedOneLake: Indexierte OneLake-Dokumentreferenz.
Web: Web-Dokumentenreferenz.

KnowledgeRetrievalIntentType

Die Art von Wissensdatenbank-Konfiguration, die man verwenden sollte.
<xref:KnownKnowledgeRetrievalIntentType> kann austauschbar mit KnowledgeRetrievalIntentType verwendet werden, enthält dieses Enum die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

Semantisch: Eine semantische Abfrageabsicht in natürlicher Sprache.

KnowledgeRetrievalReasoningEffortKind

Der Aufwand, der beim Abrufen verwendet werden soll.
<xref:KnownKnowledgeRetrievalReasoningEffortKind> kann austauschbar mit KnowledgeRetrievalReasoningEffortKind verwendet werden, dieses Enum enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

minimal: Führt keine Quellauswahl, Abfrageplanung oder iterative Suche durch.

KnowledgeRetrievalReasoningEffortUnion

Alias für KnowledgeRetrievalReasoningEffortUnion

KnowledgeSource
KnowledgeSourceContentExtractionMode

Optionaler Modus zur Extraktion von Inhalten. Der Standardwert ist 'minimal'.
<xref:KnownKnowledgeSourceContentExtractionMode> kann austauschbar mit KnowledgeSourceContentExtractionMode verwendet werden, dieses Enum enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

minimal: Extrahiert nur wesentliche Metadaten, während die meisten Inhaltsverarbeitungen aufgeschoben werden.
Standard: Führt die vollständige Standard-Inhaltsextraktionspipeline durch.

KnowledgeSourceIterator

Ein Iterator zur Auflistung der Wissensquellen, die im Suchdienst vorhanden sind. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen.

KnowledgeSourceKind

Die Art der Wissensquelle.
KnownKnowledgeSourceKind kann austauschbar mit KnowledgeSourceKind verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

searchIndex: Eine Wissensquelle, die Daten aus einem Suchindex liest.
azureBlob: Eine Wissensquelle, die Daten aus Azure Blob Storage liest und in einem Suchindex erfasst.
indexedOneLake: Eine Wissensquelle, die Daten von indexierten OneLake ausliest.
Web: Eine Wissensquelle, die Daten aus dem Web liest.

KnowledgeSourceParams

Alias für KnowledgeSourceParamsUnion

KnowledgeSourceSynchronizationStatus

Der aktuelle Synchronisierungsstatus der Wissensquelle.
<xref:KnownKnowledgeSourceSynchronizationStatus> kann austauschbar mit KnowledgeSourceSynchronizationStatus verwendet werden, dieses Enum enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

erschaffen: Die Wissensquelle wird bereitgestellt.
aktiv: Die Wissensquelle ist aktiv und Synchronisationsläufe finden statt.
Löschen: Die Wissensquelle wird gelöscht und die Synchronisation wird pausiert.

KnowledgeSourceVectorizer
LexicalAnalyzer

Enthält die möglichen Fälle für Analyzer.

LexicalAnalyzerName

Definiert die Namen aller Textanalysetools, die von der Suchmaschine unterstützt werden.
KnownLexicalAnalyzerName kann austauschbar mit LexicalAnalyzerName verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

ar.microsoft: Microsoft Analyzer für Arabisch.
ar.lucene: Lucene Analyzer für Arabisch.
hy.lucene: Lucene Analyzer für Armenier.
bn.microsoft: Microsoft Analyzer für Bangla.
eu.lucene: Lucene Analyzer für Baskisch.
bg.microsoft: Microsoft Analyzer für Bulgarisch.
bg.lucene: Lucene Analyzer für Bulgarisch.
ca.microsoft: Microsoft Analyzer für Katalanisch.
ca.lucene: Lucene Analyzer für Katalanisch.
zh-Hans.microsoft: Microsoft Analyzer für Chinesisch (vereinfacht).
zh-Hans.lucene: Lucene Analyzer für Chinesisch (vereinfacht).
zh-Hant.microsoft: Microsoft Analyzer für Chinesisch (traditionell).
zh-Hant.lucene: Lucene Analyzer für Chinesisch (traditionell).
hr.microsoft: Microsoft Analyzer für Kroatisch.
cs.microsoft: Microsoft Analyzer für Tschechisch.
cs.lucene: Lucene-Analysator für Tschechisch.
da.microsoft: Microsoft Analyzer für Dänisch.
da.lucene: Lucene Analyzer für Dänisch.
nl.microsoft: Microsoft Analyzer für Niederländisch.
nl.lucene: Lucene Analyzer für Niederländisch.
en.microsoft: Microsoft Analyzer für Englisch.
en.lucene: Lucene Analyzer für Englisch.
et.microsoft: Microsoft Analyzer für Estland.
fi.microsoft: Microsoft Analyzer für Finnisch.
fi.lucene: Lucene Analyzer für Finnisch.
fr.microsoft: Microsoft Analyzer für Französisch.
fr.lucene: Lucene Analyzer für Französisch.
gl.lucene: Lucene Analyzer für Galizien.
de.microsoft: Microsoft Analyzer für Deutsch.
de.lucene: Lucene Analyzer für Deutsch.
el.microsoft: Microsoft Analyzer für Griechisch.
el.lucene: Lucene Analyzer für Griechisch.
gu.microsoft: Microsoft Analyzer für Gujarati.
he.microsoft: Microsoft Analyzer für Hebräisch.
hi.microsoft: Microsoft Analyzer für Hindi.
hi.lucene: Lucene Analyzer für Hindi.
hu.microsoft: Microsoft Analyzer für Ungarisch.
hu.lucene: Lucene Analyzer für Ungarisch.
is.microsoft: Microsoft Analyzer für Island.
id.microsoft: Microsoft Analyzer für Indonesien (Bahasa).
id.lucene: Lucene Analyzer für Indonesien.
ga.lucene: Lucene-Analysator für Irisch.
it.microsoft: Microsoft Analyzer für Italienisch.
it.lucene: Lucene Analyzer für Italienisch.
ja.microsoft: Microsoft Analyzer für Japanisch.
ja.lucene: Lucene Analyzer für Japanisch.
kn.microsoft: Microsoft Analyzer für Kannada.
ko.microsoft: Microsoft Analyzer für Koreanisch.
ko.lucene: Lucene Analyzer für Koreanisch.
lv.microsoft: Microsoft Analyzer für Lettisch.
lv.lucene: Lucene Analyzer für Lettisch.
lt.microsoft: Microsoft Analyzer für Litauisch.
ml.microsoft: Microsoft Analyzer für Malayalam.
ms.microsoft: Microsoft Analyzer für Malaiisch (Lateinisch).
mr.microsoft: Microsoft Analyzer für Marathi.
nb. microsoft: Microsoft Analysator für Norwegisch (Bokmül).
no.lucene: Lucene Analyzer für Norwegisch.
fa.lucene: Lucene Analyzer für Persisch.
pl.microsoft: Microsoft Analyzer für Polnisch.
pl.lucene: Lucene Analyzer für Polnisch.
pt-BR.microsoft: Microsoft Analyzer für Portugiesisch (Brasilien).
pt-BR.lucene: Lucene Analyzer für Portugiesisch (Brasilien).
pt-PT.microsoft: Microsoft Analyzer für Portugiesisch (Portugal).
pt-PT.lucene: Lucene Analyzer für Portugiesisch (Portugal).
pa.microsoft: Microsoft Analyzer für Punjabi.
ro.microsoft: Microsoft Analyzer für Rumänisch.
ro.lucene: Lucene Analyzer für Rumänisch.
ru.microsoft: Microsoft Analyzer für Russisch.
ru.lucene: Lucene Analyzer für Russisch.
sr-cyrillic.microsoft: Microsoft Analyzer für Serbisch (Kyrillisch).
sr-latin.microsoft: Microsoft Analyzer für Serbisch (Lateinisch).
sk.microsoft: Microsoft Analyzer für Slowakisch.
sl.microsoft: Microsoft Analyzer für Slowenisch.
es.microsoft: Microsoft Analyzer für Spanisch.
es.lucene: Lucene Analyzer für Spanisch.
sv.microsoft: Microsoft Analyzer für Schwedisch.
sv.lucene: Lucene Analyzer für Schwedisch.
ta.microsoft: Microsoft Analyzer für Tamil.
te.microsoft: Microsoft Analyzer für Telugu.
th.microsoft: Microsoft Analyzer für Thailändisch.
th.lucene: Lucene Analyzer für Thai.
tr.microsoft: Microsoft Analyzer für Türkisch.
tr.lucene: Lucene Analyzer für Türkisch.
uk.microsoft: Microsoft Analyzer für Ukrainisch.
Your.microsoft: Microsoft Analyzer für Urdu.
vi.microsoft: Microsoft Analyzer für Vietnamesisch.
standard.lucene: Standard Lucene Analyzer.
standardasciifolding.lucene: Standard ASCII Folding Lucene Analyzer. Siehe https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers.
Schlüsselwort: Behandelt den gesamten Inhalt eines Felds als einzelnes Token. Dies ist nützlich für Daten wie Postleitzahlen, IDs und einige Produktnamen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html.
Muster: Trennt Text flexibel über ein Muster mit regulären Ausdrücken in Ausdrücke. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html.
einfache: Dividiert Text bei Nichtbuchstaben und wandelt sie in Kleinbuchstaben um. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html.
beenden: Teilt Text in Nichtbuchstaben; Wendet die Tokenfilter in Kleinbuchstaben und Stoppwörtern an. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html.
Leerzeichen: Ein Analyzer, der den Leerzeichentokenizer verwendet. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html.

LexicalNormalizer

Enthält die möglichen Fälle für LexicalNormalizer.

LexicalNormalizerName

Definiert die Namen aller Textnormalisierer, die von der Suchmaschine unterstützt werden.
KnownLexicalNormalizerName kann austauschbar mit LexicalNormalizerName verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

asciifolding: Wandelt alphabetische, numerische und symbolische Unicode-Zeichen um, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") in ihre ASCII-Entsprechungen befinden, wenn solche Entsprechungen vorhanden sind. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.
elision: Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.
Kleinbuchstaben: Normalisiert den Token-Text in Kleinbuchstaben. Siehe https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html.
standard: Standard-Normalisierer, der aus Kleinbuchstaben und Asciifolding besteht. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.
Großbuchstaben: Normalisiert den Token-Text in Großbuchstaben. Siehe https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.

LexicalTokenizer

Enthält die möglichen Fälle für Tokenizer.

LexicalTokenizerName

Definiert die Namen aller Tokenizer, die von der Suchmaschine unterstützt werden.
<xref:KnownLexicalTokenizerName> austauschbar mit LexicalTokenizerName verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

klassischen: Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente in Europa geeignet ist. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html.
edgeNGram-: Tokenisiert die Eingabe von einem Rand in n Gramm der angegebenen Größe(n). Siehe https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html.
keyword_v2: Gibt die gesamte Eingabe als einzelnes Token aus. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html.
Buchstaben: Dividiert Text in Nichtbuchstaben. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html.
Kleinbuchstaben: Dividiert Text bei Nichtbuchstaben und konvertiert sie in Kleinbuchstaben. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html.
microsoft_language_tokenizer: Dividiert Text mithilfe sprachspezifischer Regeln.
microsoft_language_stemming_tokenizer: Dividiert Text mithilfe von sprachspezifischen Regeln und reduziert Wörter auf ihre Basisformen.
nGram-: Tokenisiert die Eingabe in n-Gramm der angegebenen Größe(n). Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html.
path_hierarchy_v2: Tokenizer für pfadähnliche Hierarchien. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html.
Muster: Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html.
standard_v2: Standard Lucene Analyzer; Zusammengesetzt aus dem Standardmäßigen Tokenizer, Kleinbuchstabenfilter und Stoppfilter. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html.
uax_url_email: Tokenisiert URLs und E-Mails als ein Token. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html.
Leerzeichen: Dividiert Text beim Leerzeichen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html.

ListAliasesOptions

Optionen für listenaliases-Vorgang.

ListDataSourceConnectionsOptions

Optionen für einen Listendatenquellenvorgang.

ListIndexersOptions

Optionen für einen Listenindizierungsvorgang.

ListIndexesOptions

Optionen für einen Listenindexvorgang.

ListSkillsetsOptions

Optionen für einen Listen-Skillsets-Vorgang.

ListSynonymMapsOptions

Optionen für einen Listen synonymMaps-Vorgang.

MarkdownHeaderDepth

Gibt die maximale Headertiefe an, die beim Gruppieren von Markdowninhalten berücksichtigt wird. Der Standardwert ist h6.
KnownMarkdownHeaderDepth kann austauschbar mit MarkdownHeaderDepth verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

h1: Gibt an, dass Kopfzeilen bis zu einer Ebene von h1 beim Gruppieren von Markdowninhalten berücksichtigt werden.
h2: Gibt an, dass Kopfzeilen bis zu einer Ebene von h2 beim Gruppieren von Markdowninhalten berücksichtigt werden.
h3: Gibt an, dass Kopfzeilen bis zu einer Ebene von h3 beim Gruppieren von Markdowninhalten berücksichtigt werden.
h4: Gibt an, dass Kopfzeilen bis zu einer Ebene von h4 beim Gruppieren von Markdowninhalten berücksichtigt werden.
h5: Gibt an, dass Kopfzeilen bis zu einer Ebene von h5 beim Gruppieren von Markdowninhalten berücksichtigt werden.
h6: Gibt an, dass Kopfzeilen bis zu einer Ebene von h6 beim Gruppieren von Markdowninhalten berücksichtigt werden. Dies ist die Standardoption.

MarkdownParsingSubmode

Gibt den Untermodus an, der bestimmt, ob eine Markdowndatei in genau ein Suchdokument oder in mehrere Suchdokumente analysiert wird. Der Standardwert ist oneToMany.
KnownMarkdownParsingSubmode kann austauschbar mit MarkdownParsingSubmode verwendet werden. Diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

oneToMany: Gibt an, dass jeder Abschnitt der Markdowndatei (bis zu einer bestimmten Tiefe) in einzelne Suchdokumente analysiert wird. Dies kann zu einer einzelnen Markdowndatei führen, die mehrere Suchdokumente erzeugt. Dies ist der Standarduntermodus.
oneToOne: Gibt an, dass jede Markdowndatei in einem einzelnen Suchdokument analysiert wird.

MergeDocumentsOptions

Optionen für den Vorgang "Dokumente zusammenführen".

MergeOrUploadDocumentsOptions

Optionen für den Vorgang zum Zusammenführen oder Hochladen von Dokumenten.

MicrosoftStemmingTokenizerLanguage

Listet die vom Microsoft Language Stemming Tokenizer unterstützten Sprachen auf.

MicrosoftTokenizerLanguage

Listet die vom Microsoft-Sprachen-Tokenizer unterstützten Sprachen auf.

NarrowedModel

Beschränkt den Modelltyp so, dass nur die ausgewählten Felder enthalten sind.

OcrLineEnding

Definiert die Abfolge von Zeichen, die zwischen den Textzeilen verwendet werden sollen, die von der OCR-Fähigkeit erkannt werden. Der Standardwert ist "space".
KnownOcrLineEnding austauschbar mit OcrLineEnding verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

Leerzeichen: Zeilen werden durch ein einzelnes Leerzeichen getrennt.
wagenReturn: Linien werden durch ein Wagenrücklaufzeichen ('\r') getrennt.
lineFeed-: Zeilen werden durch ein einzelnes Zeilenvorschubzeichen ('\n') getrennt.
wagenReturnLineFeed: Linien werden durch einen Wagenrücklauf und einen Zeilenvorschub ('\r\n') getrennt.

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Gibt den Typ des phonetischen Encoders an, der mit einem PhoneticTokenFilter verwendet werden soll.

QueryAnswer

Ein Wert, der angibt, ob Antworten als Teil der Suchantwort zurückgegeben werden sollen. Dieser Parameter ist nur gültig, wenn der Abfragetyp "semantisch" ist. Wenn sie auf extractivefestgelegt ist, gibt die Abfrage Antworten zurück, die aus wichtigen Passagen in den am höchsten bewerteten Dokumenten extrahiert wurden.

QueryCaption

Ein Wert, der angibt, ob Beschriftungen als Teil der Suchantwort zurückgegeben werden sollen. Dieser Parameter ist nur gültig, wenn der Abfragetyp "semantisch" ist. Wenn festgelegt, gibt die Abfrage Beschriftungen zurück, die aus Schlüsselabschnitten in den höchsten bewerteten Dokumenten extrahiert wurden. Wenn Beschriftungen "extraktiv" sind, ist die Hervorhebung standardmäßig aktiviert. Der Standardwert ist "none".

QueryDebugMode

Aktiviert ein Debugtool, mit dem Sie Ihre Suchergebnisse weiter untersuchen können. Sie können mehrere Debug-Modi gleichzeitig aktivieren, indem Sie sie mit einem | Zeichen, zum Beispiel: semantic|queryRewrites.
KnownQueryDebugMode kann austauschbar mit QueryDebugMode verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

disabled: Es werden keine Informationen zum Abfragedebuggen zurückgegeben.
Semantik: Ermöglicht es dem Benutzer, seine neu eingestuften Ergebnisse weiter zu untersuchen.
vector: Ermöglicht es dem Benutzer, seine Hybrid- und Vektorabfrageergebnisse weiter zu untersuchen.
queryRewrites: Ermöglicht es dem Benutzer, die Liste der Abfrageumschreibungen zu untersuchen, die für seine Suchanforderung generiert wurden.
innerHits: Ermöglicht dem Benutzer das Abrufen von Bewertungsinformationen zu Vektoren, die in einer Sammlung komplexer Typen übereinstimmen.
all: Aktivieren Sie alle Debug-Optionen.

QueryRewrites

Definiert Optionen für das Umschreiben von Abfragen.

QueryType

Gibt die Syntax der Suchabfrage an. Der Standardwert ist "einfach". Verwenden Sie 'full', wenn Ihre Abfrage die Lucene-Abfragesyntax verwendet, und 'semantic', wenn die Abfragesyntax nicht benötigt wird.
<xref:KnownQueryType> kann austauschbar mit QueryType verwendet werden, dieses Enum enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

Einfach: Verwendet die einfache Abfragesyntax für Suchanfragen. Der Suchtext wird mit einer einfachen Abfragesprache interpretiert, die Symbole wie +, * und "" zulässt. Abfragen werden standardmäßig über alle durchsuchbaren Felder ausgewertet, es sei denn, der Parameter searchFields ist angegeben.
full: Verwendet die vollständige Lucene-Abfragesyntax für Suchanfragen. Der Suchtext wird mit der Abfragesprache Lucene interpretiert, die feldspezifische und gewichtete Suchen sowie andere erweiterte Funktionen ermöglicht.
Semantisch: Am besten geeignet für Anfragen, die in natürlicher Sprache statt in Schlüsselwörtern ausgedrückt werden. Verbessert die Genauigkeit der Suchergebnisse, indem die Top-Suchergebnisse mithilfe eines im Webkorpus trainierten Rangfolgemodells neu eingestuft werden.

RankingOrder

Stellt die Punktzahl dar, die für die Sortierreihenfolge von Dokumenten verwendet werden soll.
KnownRankingOrder kann austauschbar mit RankingOrder verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

BoostedRerankerScore: Legt die Sortierreihenfolge als BoostedRerankerScore fest
RerankerScore: Legt die Sortierreihenfolge als ReRankerScore fest

RegexFlags
ResetIndexerOptions

Optionen zum Zurücksetzen des Indexervorgangs.

RunIndexerOptions

Optionen zum Ausführen des Indexervorgangs.

ScoringFunction

Enthält die möglichen Fälle für ScoringFunction.

ScoringFunctionAggregation

Definiert die Aggregationsfunktion, die verwendet wird, um die Ergebnisse aller Bewertungsfunktionen in einem Bewertungsprofil zu kombinieren.

ScoringFunctionInterpolation

Definiert die Funktion, die zum Interpolieren von Score Boosting in einem Dokumentbereich verwendet wird.

ScoringStatistics

Ein Wert, der angibt, ob wir Bewertungsstatistiken (z. B. Dokumenthäufigkeit) global für eine konsistentere Bewertung oder lokal für niedrigere Latenz berechnen möchten. Der Standardwert ist 'local'. Verwenden Sie "global", um Punktestatistiken global zu aggregieren, bevor Sie eine Bewertung vornehmen. Die Verwendung globaler Bewertungsstatistiken kann die Latenz von Suchanfragen erhöhen.

SearchField

Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt.

SearchFieldArray

Wenn TModel ein nicht typisiertes Objekt ist, ist ein nicht typisiertes Zeichenfolgenarray andernfalls die schrägstrichtrennten Felder von TModel.

SearchFieldDataType

Definiert Werte für SearchFieldDataType.

Bekannte Werte, die vom Dienst unterstützt werden:

Edm.String: Gibt an, dass ein Feld eine Zeichenfolge enthält.

Edm.Int32-: Gibt an, dass ein Feld eine 32-Bit-Ganzzahl mit Vorzeichen enthält.

Edm.Int64-: Gibt an, dass ein Feld eine 64-Bit-Ganzzahl enthält.

Edm.Double: Gibt an, dass ein Feld eine IEEE-Gleitkommazahl mit doppelter Genauigkeit enthält.

Edm.Boolean: Gibt an, dass ein Feld einen booleschen Wert (true oder false) enthält.

Edm.DateTimeOffset: Gibt an, dass ein Feld einen Datums-/Uhrzeitwert enthält, einschließlich Zeitzoneninformationen.

Edm.GeographyPoint: Gibt an, dass ein Feld einen geografischen Standort in Bezug auf Längengrad und Breitengrad enthält.

Edm.ComplexType: Gibt an, dass ein Feld ein oder mehrere komplexe Objekte enthält, die wiederum Unterfelder anderer Typen aufweisen.

Edm.Single: Gibt an, dass ein Feld eine Gleitkommazahl mit einfacher Genauigkeit enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Single).

Edm.Half: Gibt an, dass ein Feld eine Gleitkommazahl mit halber Genauigkeit enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Half).

Edm.Int16-: Gibt an, dass ein Feld eine 16-Bit-ganzzahlige Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Int16).

Edm.SByte-: Gibt an, dass ein Feld eine 8-Bit-ganzzahl mit Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.SByte).

Edm.Byte-: Gibt an, dass ein Feld eine 8-Bit-ganzzahl ohne Vorzeichen enthält. Dies ist nur gültig, wenn sie als Teil eines Sammlungstyps verwendet wird, d. h. Collection(Edm.Byte).

SearchIndexAlias

Suchalias-Objekt.

SearchIndexerDataIdentity

Enthält die möglichen Fälle für SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Enthält die möglichen Fälle für Skill.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Optionen für SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Optionen für SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Optionen für SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Optionen für SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Optionen für SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Ein Iterator für Suchergebnisse einer Paticular-Abfrage. Führt Anforderungen nach Bedarf während der Iteration durch. Verwenden Sie .byPage(), um eine Anforderung an den Server pro Iteration zu stellen.

SearchMode

Gibt an, ob einige oder alle Suchbegriffe übereinstimmen müssen, damit das Dokument als Übereinstimmung gezählt wird.

SearchOptions

Optionen für das Commit einer vollständigen Suchanforderung.

SearchPick

Wählen Sie Felder von T mit gültigen AI Search OData-$select Pfaden tief aus.

SearchRequestOptions

Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten.

SearchRequestQueryTypeOptions
SearchResult

Enthält ein Dokument, das von einer Suchabfrage gefunden wurde, sowie zugeordnete Metadaten.

SelectFields

Erzeugt eine Vereinigung gültiger AI Search-OData-$select Pfade für T unter Verwendung eines Post-Order-Traversals des Feldbaums, der bei T verwurzelt ist.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType

Typ der Teilantwort, die für eine semantische Rangfolgeanforderung zurückgegeben wurde.
KnownSemanticSearchResultsType kann austauschbar mit SemanticSearchResultsType verwendet werden; dieses Enum enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

baseResults: Ergebnisse ohne semantische Anreicherung oder Neubewertung.
rerankedResults: Die Ergebnisse wurden mit dem Reranker-Modell neu bewertet und enthalten semantische Bildunterschriften. Sie enthalten keine Antworten, Hervorhebungen von Antworten oder Beschriftungen.

SentimentSkillLanguage

Die Sprachcodes, die von SentimentSkill für Eingabetext unterstützt werden.
KnownSentimentSkillLanguage kann austauschbar mit SentimentSkillLanguage verwendet werden; dieses Enum enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

da: Dänisch
nl: Niederländisch
Englisch: Englisch
fi: Finnisch
fr: Französisch
de: Deutsch
el: Griechisch
it: Italienisch
nein: Norwegisch (Bokmaal)
pl: Polnisch
pt-PT: Portugiesisch (Portugal)
ru: Russisch
es: Spanisch
sv: Schwedisch
tr: Türkisch

Similarity

Alias für SimilarityAlgorithmUnion

SimilarityAlgorithm

Enthält die möglichen Fälle für Ähnlichkeit.

SnowballTokenFilterLanguage

Die Sprache, die für einen Snowball-Token-Filter verwendet werden soll.

SplitSkillLanguage
StemmerTokenFilterLanguage

Die Sprache, die für einen Stemmmertokenfilter verwendet werden soll.

StopwordsList

Gibt eine vordefinierte Liste von sprachspezifischen Stoppwörtern an.

SuggestNarrowedModel
SuggestOptions

Optionen zum Abrufen von Vorschlägen basierend auf dem searchText.

SuggestResult

Ein Ergebnis, das ein Dokument enthält, das von einer Vorschlagsabfrage gefunden wurde, sowie zugeordnete Metadaten.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Stellt Zeichenklassen dar, auf die ein Tokenfilter angewendet werden kann.

TokenFilter

Enthält die möglichen Fälle für TokenFilter.

TokenFilterName

Definiert die Namen aller Tokenfilter, die von der Suchmaschine unterstützt werden.
<xref:KnownTokenFilterName> austauschbar mit TokenFilterName verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

arabic_normalization: Ein Tokenfilter, der den arabischen Normalisierer anwendet, um die Orthografie zu normalisieren. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html.
Apostroph: Entfernt alle Zeichen nach einem Apostroph (einschließlich des Apostrophs selbst). Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html.
asciifolding: Wandelt alphabetische, numerische und symbolische Unicode-Zeichen um, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") in ihre ASCII-Entsprechungen befinden, wenn solche Entsprechungen vorhanden sind. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.
cjk_bigram: Bildet Bigrams von CJK-Ausdrücken, die aus dem Standardtokenizer generiert werden. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html.
cjk_width: Normalisiert Unterschiede bei der CJK-Breite. Faltet vollbreite ASCII-Varianten in das äquivalente Basislatein, und halbbreite Katakana-Varianten in das äquivalente Kana. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html.
klassischen: Entfernt englische Possessive und Punkte von Akronyme. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html.
common_grams: Erstellen Sie Bigrams für häufig vorkommende Ausdrücke während der Indizierung. Einzelne Begriffe sind auch weiterhin indiziert, wobei Bigrams überlagert sind. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html.
edgeNGram_v2: Generiert n Gramm der angegebenen Größe(n) beginnend von vorne oder hinten eines Eingabetokens. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html.
elision: Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.
german_normalization: Normalisiert deutsche Charaktere nach den Heuristiken des deutschen Schneeballalgorithmus. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html.
hindi_normalization: Normalisiert Text in Hindi, um einige Unterschiede bei rechtschreibvarianten zu entfernen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html.
indic_normalization: Normalisiert die Unicode-Darstellung von Text in indischen Sprachen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html.
keyword_repeat: Gibt jedes eingehende Token zweimal aus, einmal als Schlüsselwort und einmal als Nicht-Schlüsselwort. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html.
kstem-: Ein Hochleistungs-Kstemfilter für Englisch. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html.
Länge: Entfernt Wörter, die zu lang oder zu kurz sind. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html.
Grenzwert: Beschränkt die Anzahl der Token während der Indizierung. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html.
Kleinbuchstaben: Normalisiert Tokentext in Kleinbuchstaben. Siehe https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html.
nGram_v2: Generiert n Gramm der angegebenen Größe(n). Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html.
persian_normalization: Wendet normalisierung für Persisch an. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html.
phonetischen: Erstellen von Token für phonetische Übereinstimmungen. Siehe https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html.
porter_stem: Verwendet den Porterstammalgorithmus, um den Tokendatenstrom zu transformieren. Siehe http://tartarus.org/~martin/PorterStemmer.
umgekehrte: Kehrt die Tokenzeichenfolge um. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.
scandinavian_normalization: Normalisiert die Verwendung der austauschbaren skandinavischen Charaktere. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html.
scandinavian_folding: Faltet skandinavische Zeichen Ã¥á... äæÃ"Æ->a und ööà ̧à ̃-o.> Es diskriminiert auch gegen die Verwendung von doppelten Vokalen aa, ae, ao, oe und oo, wobei nur der erste weggelassen wird. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html.
Shingle-: Erstellt Kombinationen von Token als einzelnes Token. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html.
Schneeball-: Ein Filter, der Wörter mit einem Snowball-generierten Stemmer abstammt. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html.
sorani_normalization: Normalisiert die Unicode-Darstellung von Sorani-Text. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html.
Stemmer-: Sprachspezifischer Wortstammfilter. Siehe https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters.
Stopwords: Entfernt Wörter aus einem Tokendatenstrom. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html.
kürzen: Kürzet führende und nachfolgende Leerzeichen von Token. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html.
abschneiden: Schneidet die Begriffe auf eine bestimmte Länge ab. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html.
eindeutige: Filtert Token mit demselben Text wie das vorherige Token aus. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html.
Großbuchstaben: Normalisiert Tokentext in Großbuchstaben. Siehe https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.
word_delimiter: Unterteilt Wörter in Unterwörter und führt optionale Transformationen für Unterwortgruppen durch.

UnionToIntersection
UploadDocumentsOptions

Optionen für den Vorgang zum Hochladen von Dokumenten.

VectorEncodingFormat

Das Codierungsformat für die Interpretation von Vektorfeldinhalten.
KnownVectorEncodingFormat- austauschbar mit VectorEncodingFormat verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

packedBit-: Codierungsformat, das Bits darstellt, die in einen breiteren Datentyp verpackt sind.

VectorFilterMode
VectorQuery

Die Abfrageparameter für Vektor- und Hybridsuchabfragen.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Enthält konfigurationsspezifische Optionen für den Algorithmus, der während der Indizierung und/oder Abfrage verwendet wird.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Enthält konfigurationsspezifische Optionen für die Komprimierungsmethode, die während der Indizierung oder Abfrage verwendet wird.

VectorSearchCompressionKind

Die Komprimierungsmethode, die für die Indizierung und Abfrage verwendet wird.
KnownVectorSearchCompressionKind austauschbar mit VectorSearchCompressionKind verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

skalarQuantization: Scalar Quantization, eine Art von Komprimierungsmethode. In der skalaren Quantisierung werden die ursprünglichen Vektorwerte in einen schmaleren Typ komprimiert, indem jede Komponente eines Vektors mithilfe eines reduzierten Satzes quantisierter Werte diskretiert und dargestellt wird, wodurch die Gesamtdatengröße reduziert wird.
binaryQuantization: Binary Quantization, eine Art von Komprimierungsmethode. In der binären Quantisierung werden die ursprünglichen Vektorwerte durch Diskretizing und Darstellung der einzelnen Komponenten eines Vektors mithilfe von Binärwerten auf den schmaleren Binärtyp komprimiert, wodurch die Gesamtdatengröße reduziert wird.

VectorSearchCompressionRescoreStorageMethod

Die Speichermethode für die ursprünglichen Vektoren mit voller Genauigkeit, die für die Neubewertung und interne Indexvorgänge verwendet werden.
KnownVectorSearchCompressionRescoreStorageMethod kann austauschbar mit VectorSearchCompressionRescoreStorageMethod verwendet werden, diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

preserveOriginals: Mit dieser Option werden die ursprünglichen Vektoren mit voller Genauigkeit beibehalten. Wählen Sie diese Option für maximale Flexibilität und höchste Qualität komprimierter Suchergebnisse aus. Dies verbraucht mehr Speicher, ermöglicht jedoch das Erneute Korrigieren und Überstempeln.
discardOriginals: Mit dieser Option werden die ursprünglichen Vektoren mit voller Genauigkeit verworfen. Wählen Sie diese Option für maximale Speichereinsparungen aus. Da diese Option keine Korrektur und Übersampling zulässt, führt sie häufig zu leichten zu moderaten Qualitätsreduzierungen.

VectorSearchCompressionTarget

Der quantisierte Datentyp von komprimierten Vektorwerten.
KnownVectorSearchCompressionTarget austauschbar mit VectorSearchCompressionTarget verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

int8: 8-Bit-signierte Ganzzahl.

VectorSearchVectorizer

Enthält Konfigurationsoptionen zum Vektorisieren von Textvektorabfragen.

VectorSearchVectorizerKind

Die Vektorisierungsmethode, die während der Abfragezeit verwendet werden soll.
KnownVectorSearchVectorizerKind austauschbar mit VectorSearchVectorizerKind verwendet werden kann, enthält diese Enumeration die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

azureOpenAI-: Generieren Sie Einbettungen mithilfe einer Azure OpenAI-Ressource zur Abfragezeit.
customWebApi-: Generieren Von Einbettungen mithilfe eines benutzerdefinierten Webendpunkts zur Abfragezeit.
aiServicesVision: Generieren Sie Einbettungen für eine Bild- oder Texteingabe zur Abfragezeit mithilfe der Vektorisierungs-API von Azure AI Services Vision.
aml: Generieren Sie Einbettungen mithilfe eines Azure Machine Learning-Endpunkts, der zur Abfragezeit über den Azure AI Foundry -Modellkatalog bereitgestellt wird.

VisualFeature
WebApiSkills

Enumerationen

KnownAIFoundryModelCatalogName

Der Name des Embedding-Modells aus dem Azure AI Foundry Catalog, das genannt wird.

KnownAnalyzerNames

Definiert Werte für AnalyzerName. Siehe https://learn.microsoft.com/rest/api/searchservice/Language-support.

KnownAzureOpenAIModelName

Der Name des Azure Open AI-Modells, der aufgerufen wird.

KnownBlobIndexerDataToExtract

Gibt die Daten an, die aus Azure Blob Storage extrahiert werden sollen, und teilt dem Indexer mit, welche Daten aus Bildinhalten extrahiert werden sollen, wenn "imageAction" auf einen anderen Wert als "none" festgelegt ist. Dies gilt für eingebettete Bildinhalte in einem .PDF oder einer anderen Anwendung oder für Bilddateien wie .jpg und .pngin Azure-Blobs.

KnownBlobIndexerImageAction

Bestimmt, wie eingebettete Bilder und Bilddateien in Azure Blob Storage verarbeitet werden. Das Festlegen der "imageAction"-Konfiguration auf einen anderen Wert als "none" erfordert, dass diesem Indexer auch ein Skillset angefügt wird.

KnownBlobIndexerPDFTextRotationAlgorithm

Bestimmt den Algorithmus für die Textextraktion aus PDF-Dateien in Azure Blob Storage.

KnownBlobIndexerParsingMode

Stellt den Analysemodus für die Indizierung aus einer Azure-Blobdatenquelle dar.

KnownCharFilterNames

Definiert Werte für CharFilterName.

KnownChatCompletionExtraParametersBehavior

Spezifiziert, wie 'extraParameters' von Azure AI Foundry behandelt werden sollen. Der Standardwert ist 'error'.

KnownChatCompletionResponseFormatType

Gibt an, wie der LLM die Antwort formatieren soll.

KnownContentUnderstandingSkillChunkingUnit

Steuert die Kardinalität der Blockeinheit. Der Standardwert ist 'characters'

KnownContentUnderstandingSkillExtractionOptions

Steuert die Kardinalität des Inhalts, der vom Skill aus dem Dokument extrahiert wird.

KnownCustomEntityLookupSkillLanguage

Die Sprachcodes, die von CustomEntityLookupSkill für Eingabetext unterstützt werden.

KnownDocumentIntelligenceLayoutSkillChunkingUnit

Steuert die Kardinalität der Blockeinheit. Der Standardwert ist 'characters'

KnownDocumentIntelligenceLayoutSkillExtractionOptions

Steuert die Kardinalität des Inhalts, der vom Skill aus dem Dokument extrahiert wird.

KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth

Die Tiefe der Kopfzeilen in der Markdownausgabe. Der Standardwert ist h6.

KnownDocumentIntelligenceLayoutSkillOutputFormat

Steuert die Kardinalität des Ausgabeformats. Der Standardwert ist 'markdown'.

KnownDocumentIntelligenceLayoutSkillOutputMode

Steuert die Kardinalität der Ausgabe, die von der Fähigkeit erzeugt wird. Der Standardwert ist "oneToMany".

KnownEntityCategory

Eine Zeichenfolge, die angibt, welche Entitätskategorien zurückgegeben werden sollen.

KnownEntityRecognitionSkillLanguage

Die Sprachcodes, die von EntityRecognitionSkill für Eingabetext unterstützt werden.

KnownImageAnalysisSkillLanguage

Die Sprachcodes, die für die Eingabe von ImageAnalysisSkill unterstützt werden.

KnownImageDetail

Eine Zeichenfolge, die angibt, welche domänenspezifischen Details zurückgegeben werden sollen.

KnownIndexProjectionMode

Definiert das Verhalten der Indexprojektionen in Bezug auf den Rest des Indexers.

KnownIndexerExecutionEnvironment

Gibt die Umgebung an, in der der Indexer ausgeführt werden soll.

KnownIndexerResyncOption

Optionen mit verschiedenen Arten von Berechtigungsdaten zum Indizieren.

KnownKeyPhraseExtractionSkillLanguage

Die Sprachcodes, die von KeyPhraseExtractionSkill für Eingabetext unterstützt werden.

KnownKnowledgeBaseModelKind

Das KI-Modell, das für die Abfrageplanung verwendet werden soll.

KnownKnowledgeSourceKind

Die Art der Wissensquelle.

KnownLexicalAnalyzerName

Definiert die Namen aller Textanalysetools, die von der Suchmaschine unterstützt werden.

KnownLexicalNormalizerName

Definiert die Namen aller Textnormalisierer, die von der Suchmaschine unterstützt werden.

KnownMarkdownHeaderDepth

Gibt die maximale Headertiefe an, die beim Gruppieren von Markdowninhalten berücksichtigt wird. Der Standardwert ist h6.

KnownMarkdownParsingSubmode

Gibt den Untermodus an, der bestimmt, ob eine Markdowndatei in genau ein Suchdokument oder in mehrere Suchdokumente analysiert wird. Der Standardwert ist oneToMany.

KnownOcrLineEnding

Definiert die Abfolge von Zeichen, die zwischen den Textzeilen verwendet werden sollen, die von der OCR-Fähigkeit erkannt werden. Der Standardwert ist "space".

KnownOcrSkillLanguage

Die Sprachcodes, die für die Eingabe durch OcrSkill unterstützt werden.

KnownPIIDetectionSkillMaskingMode

Eine Zeichenfolge, die angibt, welcher maskingMode verwendet werden soll, um die im Eingabetext erkannten persönlichen Informationen zu maskieren.

KnownQueryDebugMode

Aktiviert ein Debugtool, mit dem Sie Ihre Suchergebnisse weiter untersuchen können. Sie können mehrere Debug-Modi gleichzeitig aktivieren, indem Sie sie mit einem | Zeichen, zum Beispiel: semantic|queryRewrites.

KnownRankingOrder

Stellt die Punktzahl dar, die für die Sortierreihenfolge von Dokumenten verwendet werden soll.

KnownRegexFlags

Definiert ein reguläres Ausdrucks-Flag, das im Musteranalysator und Muster-Tokenizer verwendet werden kann.

KnownSearchAudience

Bekannte Werte für die Suchgruppe

KnownSearchFieldDataType

Definiert den Datentyp eines Feldes in einem Suchindex.

KnownSearchIndexerDataSourceType

Definiert den Typ einer Datenquelle.

KnownSemanticErrorMode

Ermöglicht es dem Benutzer zu wählen, ob ein semantischer Aufruf vollständig fehlschlägt oder teilweise Ergebnisse zurückgibt.

KnownSemanticErrorReason

Grund dafür, dass eine Teilantwort für eine semantische Rangfolgeanforderung zurückgegeben wurde.

KnownSemanticSearchResultsType

Typ der Teilantwort, die für eine semantische Rangfolgeanforderung zurückgegeben wurde.

KnownSentimentSkillLanguage

Die Sprachcodes, die von SentimentSkill für Eingabetext unterstützt werden.

KnownSplitSkillLanguage

Die Sprachcodes, die von SplitSkill für Eingabetext unterstützt werden.

KnownTextSplitMode

Ein Wert, der angibt, welcher Geteilte Modus ausgeführt werden soll.

KnownTextTranslationSkillLanguage

Die Sprachcodes, die von TextTranslationSkill für Eingabetext unterstützt werden.

KnownTokenFilterNames

Definiert Werte für TokenFilterName.

KnownTokenizerNames

Definiert Werte für TokenizerName.

KnownVectorEncodingFormat

Das Codierungsformat für die Interpretation von Vektorfeldinhalten.

KnownVectorFilterMode

Legt fest, ob Filter vor oder nach der Vektorsuche angewendet werden.

KnownVectorQueryKind

Die Art der Vektorabfrage, die ausgeführt wird.

KnownVectorSearchAlgorithmKind

Der Algorithmus, der für die Indizierung und Abfrage verwendet wird.

KnownVectorSearchAlgorithmMetric

Die Ähnlichkeitsmetrik, die für Vektorvergleiche verwendet werden soll. Es wird empfohlen, dieselbe Ähnlichkeitsmetrik zu wählen, mit der das Einbettungsmodell trainiert wurde.

KnownVectorSearchCompressionKind

Die Komprimierungsmethode, die für die Indizierung und Abfrage verwendet wird.

KnownVectorSearchCompressionRescoreStorageMethod

Die Speichermethode für die ursprünglichen Vektoren mit voller Genauigkeit, die für die Neubewertung und interne Indexvorgänge verwendet werden.

KnownVectorSearchCompressionTarget

Der quantisierte Datentyp von komprimierten Vektorwerten.

KnownVectorSearchVectorizerKind

Die Vektorisierungsmethode, die während der Abfragezeit verwendet werden soll.

KnownVisualFeature

Die Zeichenfolgen, die angeben, welche visuellen Feature-Typen zurückgegeben werden sollen.

Functions

createSynonymMapFromFile(string, string)

Hilfsmethode zum Erstellen eines SynonymMap-Objekts. Dies ist eine einzige NodeJS-Methode.

odata(TemplateStringsArray, unknown[])

Maskiert einen odata-Filterausdruck, um Fehler beim Anführen von Zeichenfolgenliteralen zu vermeiden. Beispielverwendung:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Weitere Informationen zur unterstützten Syntax finden Sie unter: https://learn.microsoft.com/azure/search/search-query-odata-filter

Variablen

DEFAULT_BATCH_SIZE

Standard-Chargengröße

DEFAULT_FLUSH_WINDOW

Standardfenster-Flush-Intervall

DEFAULT_RETRY_COUNT

Standardanzahl der Wiederholungen.

Details zur Funktion

createSynonymMapFromFile(string, string)

Hilfsmethode zum Erstellen eines SynonymMap-Objekts. Dies ist eine einzige NodeJS-Methode.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parameter

name

string

Name der SynonymMap.

filePath

string

Pfad der Datei, die die Synonyme enthält (getrennt durch neue Zeilen)

Gibt zurück

Promise<SynonymMap>

SynonymMap-Objekt

odata(TemplateStringsArray, unknown[])

Maskiert einen odata-Filterausdruck, um Fehler beim Anführen von Zeichenfolgenliteralen zu vermeiden. Beispielverwendung:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Weitere Informationen zur unterstützten Syntax finden Sie unter: https://learn.microsoft.com/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parameter

strings

TemplateStringsArray

Array von Zeichenfolgen für den Ausdruck

values

unknown[]

Array von Werten für den Ausdruck

Gibt zurück

string

Details zu Variablen

DEFAULT_BATCH_SIZE

Standard-Chargengröße

DEFAULT_BATCH_SIZE: number

Typ

number

DEFAULT_FLUSH_WINDOW

Standardfenster-Flush-Intervall

DEFAULT_FLUSH_WINDOW: number

Typ

number

DEFAULT_RETRY_COUNT

Standardanzahl der Wiederholungen.

DEFAULT_RETRY_COUNT: number

Typ

number