Azure.Search.Documents.Indexes.Models Namespace
Wichtig
Einige Informationen beziehen sich auf Vorabversionen, die vor dem Release ggf. grundlegend überarbeitet werden. Microsoft übernimmt hinsichtlich der hier bereitgestellten Informationen keine Gewährleistungen, seien sie ausdrücklich oder konkludent.
Klassen
AnalyzedTokenInfo |
Informationen zu einem Token, das von einem Analysetool zurückgegeben wird. |
AnalyzeTextOptions |
Gibt einige Text- und Analysekomponenten an, die verwendet werden, um diesen Text in Token zu unterteilen. |
AsciiFoldingTokenFilter |
Konvertiert alphabetische, numerische und symbolische Unicode-Zeichen, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") befinden, in ihre ASCII-Entsprechungen, wenn solche Entsprechungen vorhanden sind. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
AzureMachineLearningSkill |
Mit dem AML-Skill können Sie die KI-Anreicherung durch ein benutzerdefiniertes AML-Modell (Azure Machine Learning) erweitern. Nachdem ein AML-Modell trainiert und bereitgestellt wurde, integriert ein AML-Skill dieses in die KI-Anreicherung. |
AzureOpenAIEmbeddingSkill |
Ermöglicht das Generieren einer Vektoreinbettung für eine bestimmte Texteingabe mithilfe des Azure Open AI-Diensts. |
AzureOpenAIParameters |
Enthält die Parameter, die für die Verwendung eines Azure Open AI-Diensts zur Vektorisierung zur Abfragezeit spezifisch sind. |
AzureOpenAIVectorizer |
Enthält die Parameter, die für die Verwendung eines Azure Open AI-Diensts zur Vektorisierung zur Abfragezeit spezifisch sind. |
BM25Similarity |
Die Rangfolgefunktion basiert auf dem Okapi BM25-Ähnlichkeitsalgorithmus. BM25 ist ein TF-IDF-artiger Algorithmus, der die Längennormalisierung (gesteuert durch den Parameter "b") sowie die Begriffshäufigkeitssättigung (gesteuert durch den Parameter "k1") umfasst. |
CharFilter |
Basistyp für Zeichenfilter. Beachten Sie, dass CharFilter es sich um die Basisklasse handelt. Je nach Szenario muss hier möglicherweise eine abgeleitete Klasse der Basisklasse zugewiesen werden, oder diese Eigenschaft muss in eine der möglichen abgeleiteten Klassen umgewandelt werden. Die verfügbaren abgeleiteten Klassen umfassen MappingCharFilter und PatternReplaceCharFilter. |
CjkBigramTokenFilter |
Bildet Bigrams von CJK-Begriffen, die aus dem Standardtokenizer generiert werden. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
ClassicSimilarity |
Legacy-Ähnlichkeitsalgorithmus, der die Lucene TFIDFSimilarity-Implementierung von TF-IDF verwendet. Diese Variante von TF-IDF führt eine statische Dokumentlängennormalisierung ein sowie Koordinierungsfaktoren ein, die Dokumente benachteiligen, die nur teilweise mit den durchsuchten Abfragen übereinstimmen. |
ClassicTokenizer |
Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente in europäischer Sprache geeignet ist. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
CognitiveServicesAccount |
Basistyp zum Beschreiben einer Cognitive Service-Ressource, die einem Skillset zugeordnet ist. Beachten Sie, dass CognitiveServicesAccount es sich um die Basisklasse handelt. Je nach Szenario muss hier möglicherweise eine abgeleitete Klasse der Basisklasse zugewiesen werden, oder diese Eigenschaft muss in eine der möglichen abgeleiteten Klassen umgewandelt werden. Die verfügbaren abgeleiteten Klassen umfassen CognitiveServicesAccountKey und DefaultCognitiveServicesAccount. |
CognitiveServicesAccountKey |
Eine Cognitive Service-Ressource, die mit einem Schlüssel bereitgestellt wird, der einem Skillset angefügt ist. |
CommonGramTokenFilter |
Konstruiert Bigramme für häufig vorkommende Begriffe während der Indexierung. Einzelne Begriffe werden ebenfalls indexiert und mit Bigrammen überlagert. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
ComplexField |
Ein komplexes Feld oder eine Sammlung komplexer Felder, die untergeordnete Felder enthalten. Untergeordnete Felder können oder ComplexFieldseinSimpleField. |
ConditionalSkill |
Ein Skill, der Szenarien ermöglicht, die einen booleschen Vorgang erfordern, um die Daten zu bestimmen, die einer Ausgabe zugewiesen werden sollen. |
CorsOptions |
Definiert Optionen zum Steuern der ressourcenübergreifenden Ressourcenfreigabe (Cross-Origin Resource Sharing, CORS) für einen Index. |
CustomAnalyzer |
Ermöglicht Es Ihnen, die Kontrolle über den Prozess der Konvertierung von Text in indizierbare/durchsuchbare Token zu übernehmen. Es handelt sich um eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für das Aufteilen von Text in Token und die Filter zum Ändern von Token verantwortlich, die vom Tokenizer ausgegeben werden. |
CustomEntity |
Ein -Objekt, das Informationen zu den gefundenen Übereinstimmungen und zugehörigen Metadaten enthält. |
CustomEntityAlias |
Ein komplexes Objekt, das verwendet werden kann, um alternative Schreibweisen oder Synonyme für den Namen der Stammentität anzugeben. |
CustomEntityLookupSkill |
Ein Skill sucht nach Text aus einer benutzerdefinierten Liste von Wörtern und Ausdrücken. |
CustomNormalizer |
Ermöglicht das Konfigurieren der Normalisierung für filterbare, sortierbare und facetable-Felder, die standardmäßig mit strikter Übereinstimmung arbeiten. Dies ist eine benutzerdefinierte Konfiguration, die aus mindestens einem Filter besteht, der das gespeicherte Token ändert. |
CustomVectorizer |
Enthält die Parameter, die für das Generieren von Vektoreinbettungen über einen benutzerdefinierten Endpunkt spezifisch sind. |
CustomVectorizerParameters |
Enthält die Parameter, die für das Generieren von Vektoreinbettungen über einen benutzerdefinierten Endpunkt spezifisch sind. |
DataChangeDetectionPolicy |
Basistyp für Datenänderungserkennungsrichtlinien. Beachten Sie, dass DataChangeDetectionPolicy es sich um die Basisklasse handelt. Je nach Szenario muss hier möglicherweise eine abgeleitete Klasse der Basisklasse zugewiesen werden, oder diese Eigenschaft muss in eine der möglichen abgeleiteten Klassen umgewandelt werden. Die verfügbaren abgeleiteten Klassen umfassen HighWaterMarkChangeDetectionPolicy und SqlIntegratedChangeTrackingPolicy. |
DataDeletionDetectionPolicy |
Basistyp für Datenlöschungserkennungsrichtlinien. Beachten Sie, dass DataDeletionDetectionPolicy es sich um die Basisklasse handelt. Je nach Szenario muss hier möglicherweise eine abgeleitete Klasse der Basisklasse zugewiesen werden, oder diese Eigenschaft muss in eine der möglichen abgeleiteten Klassen umgewandelt werden. Die verfügbaren abgeleiteten Klassen umfassen NativeBlobSoftDeleteDeletionDetectionPolicy und SoftDeleteColumnDeletionDetectionPolicy. |
DefaultCognitiveServicesAccount |
Ein leeres Objekt, das die cognitive-Standardressource für ein Skillset darstellt. |
DictionaryDecompounderTokenFilter |
Zerlegt zusammengesetzte Wörter, die in vielen germanischen Sprachen vorkommen. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
DistanceScoringFunction |
Definiert eine Funktion, die die Bewertungen basierend auf der Entfernung von einem geografischen Standort erhöht. |
DistanceScoringParameters |
Stellt Parameterwerte für eine Entfernungsbewertungsfunktion bereit. |
DocumentExtractionSkill |
Ein Skill, der Inhalte aus einer Datei innerhalb der Anreicherungspipeline extrahiert. |
EdgeNGramTokenFilter |
Generiert n Gramm der angegebenen Größe(en) ausgehend von der Vorder- oder Rückseite eines Eingabetokens. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
EdgeNGramTokenizer |
Tokenisiert die Eingabe von einer Kante in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
ElisionTokenFilter |
Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
EntityLinkingSkill |
Extrahiert mit der Textanalyse-API verknüpfte Entitäten aus Text. |
EntityRecognitionSkill |
Dieser Skill ist veraltet. Verwenden Sie die V3. Stattdessen EntityRecognitionSkill. |
ExhaustiveKnnParameters |
Enthält die Parameter, die für den vollständigen KNN-Algorithmus spezifisch sind. |
ExhaustiveKnnVectorSearchAlgorithmConfiguration |
Enthält Konfigurationsoptionen, die für den vollständigen KNN-Algorithmus spezifisch sind, der während der Abfrage verwendet wird, der brute-force-Suche für den gesamten Vektorindex ausführt. |
FieldMapping |
Definiert eine Zuordnung zwischen einem Feld in einer Datenquelle und einem Zielfeld in einem Index. |
FieldMappingFunction |
Stellt eine Funktion dar, die einen Wert aus einer Datenquelle vor der Indizierung transformiert. |
FreshnessScoringFunction |
Definiert eine Funktion, die die Bewertungen basierend auf dem Wert eines Datums-Uhrzeit-Felds erhöht. |
FreshnessScoringParameters |
Stellt Parameterwerte für eine Frischebewertungsfunktion bereit. |
HighWaterMarkChangeDetectionPolicy |
Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen basierend auf dem Wert einer Spalte mit hohem Wasserzeichen erfasst. |
HnswParameters |
Enthält die für den hnsw-Algorithmus spezifischen Parameter. |
HnswVectorSearchAlgorithmConfiguration |
Enthält Konfigurationsoptionen, die speziell für den hnsw-Algorithmus für nähere Nachbarn gelten, der während der Indizierung und Abfrage verwendet wird. Der hnsw-Algorithmus bietet einen abstimmbaren Kompromiss zwischen Suchgeschwindigkeit und Genauigkeit. |
ImageAnalysisSkill |
Ein Skill, der Bilddateien analysiert. Es extrahiert einen umfangreichen Satz visueller Features basierend auf dem Bildinhalt. |
IndexerChangeTrackingState |
Stellt den Änderungsnachverfolgungsstatus während der Ausführung eines Indexers dar. |
IndexerExecutionResult |
Stellt das Ergebnis einer einzelnen Indexerausführung dar. |
IndexerState |
Stellt den gesamten Zustand dar, der die aktuelle Ausführung des Indexers definiert und diktiert. |
IndexingParameters |
Stellt die Parameter für die Indexerausführung dar. |
IndexingParametersConfiguration |
Ein Wörterbuch mit indexerspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen primitiven Typ aufweisen. |
IndexingSchedule |
Stellt einen Zeitplan für die Indexerausführung dar. |
InputFieldMappingEntry |
Eingabefeldzuordnung für einen Skill. |
KeepTokenFilter |
Ein Tokenfilter, der nur Token mit Text in einer angegebenen Liste von Wörtern speichert. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
KeyPhraseExtractionSkill |
Eine Qualifikation, die Textanalyse für die Schlüsselbegriffsextraktion verwendet. |
KeywordMarkerTokenFilter |
Begriffe werden als Schlüsselwörter gekennzeichnet. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
KeywordTokenizer |
Gibt die gesamte Eingabe als ein einzelnes Token aus. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
KnowledgeStore |
Definition von zusätzlichen Projektionen für Azure-Blobs, -Tabellen oder -Dateien mit angereicherten Daten. |
KnowledgeStoreFileProjectionSelector |
Projektionsdefinition für die Daten, die in Azure Files gespeichert werden sollen. |
KnowledgeStoreObjectProjectionSelector |
Projektionsdefinition für die Daten, die in Azure Blob gespeichert werden sollen. |
KnowledgeStoreProjection |
Containerobjekt für verschiedene Projektionsselektoren. |
KnowledgeStoreProjectionSelector |
Abstrakte Klasse zum Freigeben von Eigenschaften zwischen konkreten Selektoren. |
KnowledgeStoreStorageProjectionSelector |
Abstrakte Klasse zum Freigeben von Eigenschaften zwischen konkreten Selektoren. |
KnowledgeStoreTableProjectionSelector |
Beschreibung, welche Daten in Azure Tables gespeichert werden sollen. |
LanguageDetectionSkill |
Eine Qualifikation, die die Sprache des Eingabetexts erkennt und einen einzelnen Sprachcode für jedes Dokument meldet, das auf die Anforderung gesendet wird. Der Sprachcode wird mit einer Bewertung gekoppelt, die die Zuverlässigkeit der Analyse angibt. |
LengthTokenFilter |
Entfernt die Wörter, die zu lang oder zu kurz sind. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
LexicalAnalyzer |
Basistyp für Analysetools. Beachten Sie, dass LexicalAnalyzer es sich um die Basisklasse handelt. Je nach Szenario muss hier möglicherweise eine abgeleitete Klasse der Basisklasse zugewiesen werden, oder diese Eigenschaft muss in eine der möglichen abgeleiteten Klassen umgewandelt werden. Die verfügbaren abgeleiteten Klassen sind CustomAnalyzer, PatternAnalyzerund LuceneStandardAnalyzerStopAnalyzer. |
LexicalAnalyzerName.Values |
Die Werte aller deklarierten LexicalAnalyzerName Eigenschaften als Zeichenfolgenkonstanten. Diese können in SearchableFieldAttribute und überall dort verwendet werden, wo konstanten erforderlich sind. |
LexicalNormalizer |
Basistyp für Normalisierer. Beachten Sie, dass LexicalNormalizer es sich um die Basisklasse handelt. Je nach Szenario muss hier möglicherweise eine abgeleitete Klasse der Basisklasse zugewiesen werden, oder diese Eigenschaft muss in eine der möglichen abgeleiteten Klassen umgewandelt werden. Zu den verfügbaren abgeleiteten Klassen gehören CustomNormalizer. |
LexicalNormalizerName.Values |
Die Werte aller deklarierten LexicalNormalizerName Eigenschaften als Zeichenfolgenkonstanten. Diese können in SimpleFieldAttributeverwendet werden, SearchableFieldAttribute und an jedem anderen Ort sind Konstanten erforderlich. |
LexicalTokenizer |
Basistyp für Tokenisierer. Beachten Sie, dass LexicalTokenizer es sich um die Basisklasse handelt. Je nach Szenario muss hier möglicherweise eine abgeleitete Klasse der Basisklasse zugewiesen werden, oder diese Eigenschaft muss in eine der möglichen abgeleiteten Klassen umgewandelt werden. Die verfügbaren abgeleiteten Klassen sind ClassicTokenizer, EdgeNGramTokenizer, KeywordTokenizer, MicrosoftLanguageStemmingTokenizerKeywordTokenizer, , MicrosoftLanguageTokenizer, NGramTokenizer, PathHierarchyTokenizer, , PatternTokenizer, LuceneStandardTokenizerund LuceneStandardTokenizerUaxUrlEmailTokenizer. |
LimitTokenFilter |
Beschränkt die Anzahl der Token während der Indizierung. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
LuceneStandardAnalyzer |
Apache Lucene-Standardanalyse; Besteht aus dem Standardtokenizer, Kleinbuchstabenfilter und Stoppfilter. |
LuceneStandardTokenizer |
Teilt Text gemäß den Regeln für Unicode-Textsegmentierung auf. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
MagnitudeScoringFunction |
Definiert eine Funktion, die die Bewertungen basierend auf der Größe eines numerischen Felds erhöht. |
MagnitudeScoringParameters |
Stellt Parameterwerte für eine Magnitudenbewertungsfunktion bereit. |
MappingCharFilter |
Ein Zeichenfilter, der Zuordnungen anwendet, die mit der Zuordnungsoption definiert sind. Der Abgleich ist umfangreich (der längste Musterabgleich an einem bestimmten Punkt wird verwendet). Eine Ersetzung kann eine leere Zeichenfolge sein. Dieser Zeichenfilter wird mithilfe von Apache Lucene implementiert. |
MergeSkill |
Ein Skill zum Zusammenführen von zwei oder mehr Zeichenfolgen in einer einzelnen einheitlichen Zeichenfolge mit einem optionalen benutzerdefinierten Trennzeichen, das jeden Komponententeil trennt. |
MicrosoftLanguageStemmingTokenizer |
Teilt Text nach sprachspezifischen Regeln auf und reduziert Wörter auf deren Grundformen. |
MicrosoftLanguageTokenizer |
Teilt Text mit sprachspezifische Regeln auf. |
NativeBlobSoftDeleteDeletionDetectionPolicy |
Definiert eine Richtlinie zur Erkennung von Datenlöschungen mithilfe der nativen Funktion für vorläufiges Löschen von Azure Blob Storage für die Löscherkennung. |
NGramTokenFilter |
Generiert N-Gramme einer festgelegten Größe. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
NGramTokenizer |
Tokenisiert die Eingabe in N-Gramme einer festgelegten Größe. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
OcrSkill |
Ein Skill, der Text aus Bilddateien extrahiert. |
OutputFieldMappingEntry |
Ausgabefeldzuordnung für einen Skill. |
PathHierarchyTokenizer |
Tokenizer für pfadähnliche Hierarchien. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
PatternAnalyzer |
Trennt Text flexibel über ein reguläres Ausdrucksmuster in Begriffe. Dieses Analysetool wird mit Apache Lucene implementiert. |
PatternCaptureTokenFilter |
Verwendet Java-Regexes zum Ausgeben mehrerer Token – eines für jede Erfassungsgruppe in einem oder mehreren Mustern. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
PatternReplaceCharFilter |
Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Er verwendet einen regulären Ausdruck, um zu erhaltende Zeichenfolgen zu identifizieren, und ein Ersatzmuster, um zu ersetzende Zeichen zu identifizieren. Wenn sie beispielsweise den Eingabetext "aa bb aa bb", das Muster "(aa)\s+(bb)" und den Ersatz "$1#$2" verwenden, würde das Ergebnis "aa#bb aa#bb". Dieser Zeichenfilter wird mithilfe von Apache Lucene implementiert. |
PatternReplaceTokenFilter |
Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Er verwendet einen regulären Ausdruck, um zu erhaltende Zeichenfolgen zu identifizieren, und ein Ersatzmuster, um zu ersetzende Zeichen zu identifizieren. Wenn sie beispielsweise den Eingabetext "aa bb aa bb", das Muster "(aa)\s+(bb)" und den Ersatz "$1#$2" verwenden, würde das Ergebnis "aa#bb aa#bb". Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
PatternTokenizer |
Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
PhoneticTokenFilter |
Erstellt Token für phonetische Übereinstimmungen. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
PiiDetectionSkill |
Mithilfe der Textanalyse-API werden personenbezogene Informationen aus einem Eingabetext extrahiert und Sie können ihn maskieren. |
PrioritizedFields |
Beschreibt die Felder Titel, Inhalt und Schlüsselwörter, die für semantische Rangfolge, Beschriftungen, Hervorhebungen und Antworten verwendet werden sollen. |
ScoringFunction |
Basistyp für Funktionen, die Dokumentbewertungen während der Rangfolge ändern können. Beachten Sie, dass ScoringFunction es sich um die Basisklasse handelt. Je nach Szenario muss hier möglicherweise eine abgeleitete Klasse der Basisklasse zugewiesen werden, oder diese Eigenschaft muss in eine der möglichen abgeleiteten Klassen umgewandelt werden. Die verfügbaren abgeleiteten Klassen sind DistanceScoringFunction, FreshnessScoringFunctionund MagnitudeScoringFunctionTagScoringFunction. |
ScoringProfile |
Definiert Parameter für einen Suchindex, der die Bewertung in Suchabfragen beeinflusst. |
SearchableField |
Ein String oder "Collection(String)"-Feld, das durchsucht werden kann. |
SearchAlias |
Stellt einen Indexalias dar, der eine Zuordnung vom Aliasnamen zu einem Index beschreibt. Der Aliasname kann anstelle des Indexnamens für unterstützte Vorgänge verwendet werden. |
SearchField |
Stellt ein Feld in einer Indexdefinition dar, die den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. |
SearchFieldTemplate |
Basisfeldtyp für Hilfsklassen zum einfacheren Erstellen von SearchIndex. |
SearchIndex |
Stellt eine Suchindexdefinition dar, die die Felder und das Suchverhalten eines Indexes beschreibt. |
SearchIndexer |
Stellt einen Indexer dar. |
SearchIndexerCache |
The SearchIndexerCache. |
SearchIndexerDataContainer |
Stellt Informationen zur Entität (z. B. Azure SQL Tabelle oder CosmosDB-Auflistung) dar, die indiziert wird. |
SearchIndexerDataIdentity |
Abstrakter Basistyp für Datenidentitäten. Beachten Sie, dass SearchIndexerDataIdentity es sich um die Basisklasse handelt. Je nach Szenario muss hier möglicherweise eine abgeleitete Klasse der Basisklasse zugewiesen werden, oder diese Eigenschaft muss in eine der möglichen abgeleiteten Klassen umgewandelt werden. Die verfügbaren abgeleiteten Klassen umfassen SearchIndexerDataNoneIdentity und SearchIndexerDataUserAssignedIdentity. |
SearchIndexerDataNoneIdentity |
Löscht die Identitätseigenschaft einer Datenquelle. |
SearchIndexerDataSourceConnection |
Stellt eine Datenquellendefinition dar, die zum Konfigurieren eines Indexers verwendet werden kann. |
SearchIndexerDataUserAssignedIdentity |
Gibt die Identität für eine zu verwendende Datenquelle an. |
SearchIndexerError |
Stellt einen Indizierungsfehler auf Element- oder Dokumentebene dar. |
SearchIndexerIndexProjections |
Definition von zusätzlichen Projektionen zu sekundären Suchindizes. |
SearchIndexerIndexProjectionSelector |
Beschreibung, welche Daten im angegebenen Suchindex gespeichert werden sollen. |
SearchIndexerIndexProjectionsParameters |
Ein Wörterbuch mit indexprojektionsspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen primitiven Typ aufweisen. |
SearchIndexerKnowledgeStoreParameters |
Ein Wörterbuch mit wissensspeicherspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen primitiven Typ aufweisen. |
SearchIndexerLimits |
The SearchIndexerLimits. |
SearchIndexerSkill |
Basistyp für Skills. Beachten Sie, dass SearchIndexerSkill es sich um die Basisklasse handelt. Je nach Szenario muss hier möglicherweise eine abgeleitete Klasse der Basisklasse zugewiesen werden, oder diese Eigenschaft muss in eine der möglichen abgeleiteten Klassen umgewandelt werden. Die verfügbaren abgeleiteten Klassen sind AzureMachineLearningSkill, WebApiSkill, AzureOpenAIEmbeddingSkill, EntityRecognitionSkillCustomEntityLookupSkill, KeyPhraseExtractionSkill, LanguageDetectionSkill, MergeSkill, , PiiDetectionSkill, SplitSkillSentimentSkill, EntityLinkingSkillTextTranslationSkillAzure.Search.Documents.Indexes.Models.EntityRecognitionSkillV3, , Azure.Search.Documents.Indexes.Models.SentimentSkillV3, , ConditionalSkill, , DocumentExtractionSkill, ShaperSkillund . ImageAnalysisSkillOcrSkill |
SearchIndexerSkillset |
Eine Liste der Fähigkeiten. |
SearchIndexerStatus |
Stellt den aktuellen Status und Ausführungsverlauf eines Indexers dar. |
SearchIndexerWarning |
Stellt eine Warnung auf Elementebene dar. |
SearchIndexStatistics |
Statistiken für einen bestimmten Index. Statistiken werden in regelmäßigen Abständen gesammelt und sind nicht garantiert, dass sie immer auf dem neuesten Stand sind. |
SearchResourceCounter |
Stellt die Nutzung und das Kontingent einer Ressource dar. |
SearchResourceEncryptionKey |
Ein kundenseitig verwalteter Verschlüsselungsschlüssel in Azure Key Vault. Schlüssel, die Sie erstellen und verwalten, können zum Verschlüsseln oder Entschlüsseln ruhender Daten in Azure Cognitive Search verwendet werden, z. B. Indizes und Synonymzuordnungen. |
SearchServiceCounters |
Stellt Ressourcenindikatoren und Kontingente auf Dienstebene dar. |
SearchServiceLimits |
Stellt verschiedene Servicelevel-Grenzwerte dar. |
SearchServiceStatistics |
Antwort aus einer Anforderung zum Abrufen von Dienststatistiken. Wenn dies erfolgreich ist, enthält sie Leistungsindikatoren und Grenzwerte für den Servicelevel. |
SearchSuggester |
Definiert, wie die Vorschlags-API auf eine Gruppe von Feldern im Index angewendet werden soll. |
SemanticConfiguration |
Definiert eine bestimmte Konfiguration, die im Kontext semantischer Funktionen verwendet werden soll. |
SemanticField |
Ein Feld, das als Teil der semantischen Konfiguration verwendet wird. |
SemanticSettings |
Definiert Parameter für einen Suchindex, die semantische Funktionen beeinflussen. |
SentimentSkill |
Dieser Skill ist veraltet. Verwenden Sie die V3. SentimentSkill stattdessen. |
ShaperSkill |
Ein Skill zum Umgestalten der Ausgaben. Es erstellt einen komplexen Typ zur Unterstützung zusammengesetzter Felder (auch als mehrteilige Felder bezeichnet). |
ShingleTokenFilter |
Kombiniert Token zu einem einzelnen Token. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
SimilarityAlgorithm |
Basistyp für Ähnlichkeitsalgorithmen. Ähnlichkeitsalgorithmen werden verwendet, um Bewertungen zu berechnen, die Abfragen an Dokumente binden. Je höher die Bewertung, desto relevanter ist das Dokument für diese spezifische Abfrage. Diese Bewertungen werden verwendet, um die Suchergebnisse zu bewerten. Beachten Sie, dass SimilarityAlgorithm es sich um die Basisklasse handelt. Je nach Szenario muss hier möglicherweise eine abgeleitete Klasse der Basisklasse zugewiesen werden, oder diese Eigenschaft muss in eine der möglichen abgeleiteten Klassen umgewandelt werden. Die verfügbaren abgeleiteten Klassen umfassen BM25Similarity und ClassicSimilarity. |
SimpleField |
Ein einfaches Feld, das einen primitiven Typ oder eine Auflistung eines primitiven Typs verwendet. |
SnowballTokenFilter |
Ein Filter, der Wörter mithilfe eines von Snowball generierten Stemmers vorgibt. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
SoftDeleteColumnDeletionDetectionPolicy |
Definiert eine Richtlinie zur Erkennung von Datenlöschungen, die eine Strategie zum vorläufigen Löschen implementiert. Es bestimmt, ob ein Element basierend auf dem Wert einer angegebenen "vorläufigen Löschen"-Spalte gelöscht werden soll. |
SplitSkill |
Eine Fähigkeit zum Aufteilen einer Zeichenfolge in Textblöcke. |
SqlIntegratedChangeTrackingPolicy |
Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen mithilfe des Integrierten Änderungsnachverfolgung-Features von Azure SQL-Datenbank erfasst. |
StemmerOverrideTokenFilter |
Bietet die Möglichkeit, andere Stammfilter mit benutzerdefiniertem wörterbuchbasiertem Stammstamm zu überschreiben. Alle Wörter mit Wörterbuchstamm werden als Schlüsselwörter markiert, sodass sie nicht mit Stemmeren in der Kette abgestammt werden. Muss vor dem Filter für die Wortstammerkennung platziert werden. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
StemmerTokenFilter |
Sprachspezifischer Stammfilter. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
StopAnalyzer |
Unterteilt Text in Nicht-Buchstaben; Wendet die Kleinbuchstaben- und Stoppworttokenfilter an. Dieses Analysetool wird mit Apache Lucene implementiert. |
StopwordsTokenFilter |
Entfernt Stoppwörter aus einem Tokenstream. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
SynonymMap |
Stellt eine Synonymzuordnungsdefinition dar. |
SynonymTokenFilter |
Entspricht Synonymen mit einzelnen oder mehreren Wörtern in einem Tokenstream. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
TagScoringFunction |
Definiert eine Funktion, die die Bewertungen von Dokumenten mit Zeichenfolgenwerten erhöht, die einer bestimmten Liste von Tags entsprechen. |
TagScoringParameters |
Stellt Parameterwerte für eine Tagbewertungsfunktion bereit. |
TextTranslationSkill |
Eine Fähigkeit zum Übersetzen von Text von einer Sprache in eine andere. |
TextWeights |
Definiert Gewichtungen für Indexfelder, für die Übereinstimmungen die Bewertung in Suchabfragen erhöhen sollen. |
TokenFilter |
Basistyp für Tokenfilter. Beachten Sie, dass TokenFilter es sich um die Basisklasse handelt. Je nach Szenario muss hier möglicherweise eine abgeleitete Klasse der Basisklasse zugewiesen werden, oder diese Eigenschaft muss in eine der möglichen abgeleiteten Klassen umgewandelt werden. Die verfügbaren abgeleiteten Klassen sind AsciiFoldingTokenFilter, , CommonGramTokenFilterCjkBigramTokenFilter, EdgeNGramTokenFilterDictionaryDecompounderTokenFilter, , ElisionTokenFilterEdgeNGramTokenFilter, KeepTokenFilter, , KeywordMarkerTokenFilter, LengthTokenFilter, NGramTokenFilterLimitTokenFilterPatternCaptureTokenFilterNGramTokenFilter, PatternReplaceTokenFilterPhoneticTokenFilter, ShingleTokenFilter, SnowballTokenFilterSynonymTokenFilterStopwordsTokenFilterStemmerOverrideTokenFilterStemmerTokenFilter, TruncateTokenFilterund . UniqueTokenFilterWordDelimiterTokenFilter |
TruncateTokenFilter |
Schneidet die Begriffe auf eine bestimmte Länge ab. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
UaxUrlEmailTokenizer |
Tokenisiert URLs und E-Mails als ein Token. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
UniqueTokenFilter |
Filtert Token mit dem gleichen Text wie das vorherige Token heraus. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
VectorSearch |
Enthält Konfigurationsoptionen im Zusammenhang mit der Vektorsuche. |
VectorSearchAlgorithmConfiguration |
Enthält Konfigurationsoptionen, die für den Algorithmus spezifisch sind, der während der Indizierung und/oder Abfrage verwendet wird. Beachten Sie, dass VectorSearchAlgorithmConfiguration es sich um die Basisklasse handelt. Je nach Szenario muss hier möglicherweise eine abgeleitete Klasse der Basisklasse zugewiesen werden, oder diese Eigenschaft muss in eine der möglichen abgeleiteten Klassen umgewandelt werden. Die verfügbaren abgeleiteten Klassen umfassen ExhaustiveKnnVectorSearchAlgorithmConfiguration und HnswVectorSearchAlgorithmConfiguration. |
VectorSearchProfile |
Definiert eine Kombination von Konfigurationen, die mit der Vektorsuche verwendet werden sollen. |
VectorSearchVectorizer |
Enthält spezifische Details für eine Vektorisierungsmethode, die während der Abfragezeit verwendet werden soll. Beachten Sie, dass VectorSearchVectorizer es sich um die Basisklasse handelt. Je nach Szenario muss hier möglicherweise eine abgeleitete Klasse der Basisklasse zugewiesen werden, oder diese Eigenschaft muss in eine der möglichen abgeleiteten Klassen umgewandelt werden. Die verfügbaren abgeleiteten Klassen umfassen AzureOpenAIVectorizer und CustomVectorizer. |
WebApiSkill |
Ein Skill, der einen Web-API-Endpunkt aufrufen kann, sodass Sie ein Skillset erweitern können, indem Sie ihren benutzerdefinierten Code aufrufen. |
WordDelimiterTokenFilter |
Unterteilt Wörter in Teilwörter und führt optionale Transformationen in Teilwortgruppen durch. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert. |
Strukturen
BlobIndexerDataToExtract |
Gibt die Daten an, die aus Azure Blob Storage extrahiert werden sollen, und teilt dem Indexer mit, welche Daten aus Bildinhalten extrahiert werden sollen, wenn "imageAction" auf einen anderen Wert als "none" festgelegt ist. Dies gilt für eingebettete Bildinhalte in einer .PDF oder einer anderen Anwendung oder Bilddateien wie .jpg und .png in Azure-Blobs. |
BlobIndexerImageAction |
Bestimmt, wie eingebettete Images und Imagedateien in Azure Blob Storage verarbeitet werden. Wenn Sie die "imageAction"-Konfiguration auf einen anderen Wert als "none" festlegen, muss diesem Indexer auch ein Skillset angefügt werden. |
BlobIndexerParsingMode |
Stellt den Analysemodus für die Indizierung aus einer Azure-Blob-Datenquelle dar. |
BlobIndexerPdfTextRotationAlgorithm |
Bestimmt den Algorithmus für die Textextraktion aus PDF-Dateien in Azure Blob Storage. |
CharFilterName |
Definiert die Namen aller Zeichenfilter, die von Azure Cognitive Search unterstützt werden. |
CustomEntityLookupSkillLanguage |
Die Sprachcodes, die für Eingabetext von CustomEntityLookupSkill unterstützt werden. |
EntityCategory |
Eine Zeichenfolge, die angibt, welche Entitätskategorien zurückgegeben werden sollen. |
EntityRecognitionSkill.SkillVersion |
Stellt Dienstversionsinformationen eines dar EntityRecognitionSkill. |
EntityRecognitionSkillLanguage |
Veraltet. Die Sprachcodes, die für Eingabetext von EntityRecognitionSkill unterstützt werden. |
ImageAnalysisSkillLanguage |
Die Sprachcodes, die für die Eingabe von ImageAnalysisSkill unterstützt werden. |
ImageDetail |
Eine Zeichenfolge, die angibt, welche domänenspezifischen Details zurückgegeben werden sollen. |
IndexerExecutionEnvironment |
Gibt die Umgebung an, in der der Indexer ausgeführt werden soll. |
IndexerExecutionStatusDetail |
Details zum status einer einzelnen Indexerausführung. |
IndexingMode |
Stellt den Modus dar, in dem der Indexer ausgeführt wird. |
IndexProjectionMode |
Definiert das Verhalten der Indexprojektionen in Bezug auf den Rest des Indexers. |
KeyPhraseExtractionSkillLanguage |
Die Sprachcodes, die für Eingabetext von KeyPhraseExtractionSkill unterstützt werden. |
LexicalAnalyzerName |
Definiert die Namen aller Textanalysetools, die von Azure Cognitive Search unterstützt werden. |
LexicalNormalizerName |
Definiert die Namen aller Von Azure Cognitive Search unterstützten Textnormalisierer. |
LexicalTokenizerName |
Definiert die Namen aller Tokenisierer, die von Azure Cognitive Search unterstützt werden. |
LineEnding |
Definiert die Sequenz von Zeichen, die zwischen den Textzeilen verwendet werden sollen, die vom OCR-Skill erkannt werden. Der Standardwert ist "space". |
OcrSkillLanguage |
Die Sprachcodes, die für die Eingabe von OcrSkill unterstützt werden. |
PiiDetectionSkillMaskingMode |
Eine Zeichenfolge, die angibt, welche MaskingMode zum Maskieren der im Eingabetext erkannten persönlichen Informationen verwendet werden soll. |
RegexFlag |
Definiert Flags, die kombiniert werden können, um zu steuern, wie reguläre Ausdrücke im Musteranalyse- und Mustertokenprogramm verwendet werden. |
SearchFieldDataType |
Definiert den Datentyp eines Felds in einem Suchindex. |
SearchIndexerDataSourceType |
Definiert den Typ einer Datenquelle. |
SentimentSkill.SkillVersion |
Stellt Dienstversionsinformationen eines dar SentimentSkill. |
SentimentSkillLanguage |
Veraltet. Die Sprachcodes, die für Eingabetext von SentimentSkill unterstützt werden. |
SplitSkillLanguage |
Die Sprachcodes, die für Eingabetext von SplitSkill unterstützt werden. |
TextSplitMode |
Ein Wert, der angibt, welcher Splitmodus ausgeführt werden soll. |
TextTranslationSkillLanguage |
Die Sprachcodes, die für eingabetext von TextTranslationSkill unterstützt werden. |
TokenFilterName |
Definiert die Namen aller Tokenfilter, die von Azure Cognitive Search unterstützt werden. |
VectorSearchAlgorithmKind |
Der Algorithmus, der für die Indizierung und Abfrage verwendet wird. |
VectorSearchAlgorithmMetric |
Die Ähnlichkeitsmetrik, die für Vektorvergleiche verwendet werden soll. |
VectorSearchVectorizerKind |
Die Vektorisierungsmethode, die während der Abfragezeit verwendet werden soll. |
VisualFeature |
Die Zeichenfolgen, die angeben, welche visuellen Featuretypen zurückgegeben werden sollen. |
Enumerationen
CjkBigramTokenFilterScripts |
Skripts, die von CjkBigramTokenFilter ignoriert werden können. |
EdgeNGramTokenFilterSide |
Gibt an, von welcher Seite der Eingabe ein n-Gramm generiert werden soll. |
IndexerExecutionStatus |
Stellt den Status einer einzelnen Indexerausführung dar. |
IndexerStatus |
Stellt den Gesamtstatus des Indexers dar. |
MicrosoftStemmingTokenizerLanguage |
Listet die sprachen auf, die vom Microsoft Language Stemming Tokenizer unterstützt werden. |
MicrosoftTokenizerLanguage |
Listet die Sprachen auf, die vom Microsoft-Sprachtokenprogramm unterstützt werden. |
PhoneticEncoder |
Gibt den Typ des phonetischen Encoders an, der mit einem PhoneticTokenFilter verwendet werden soll. |
ScoringFunctionAggregation |
Definiert die Aggregationsfunktion, die verwendet wird, um die Ergebnisse aller Bewertungsfunktionen in einem Bewertungsprofil zu kombinieren. |
ScoringFunctionInterpolation |
Definiert die Funktion, die zum Interpolieren der Bewertungsverhebung für eine Reihe von Dokumenten verwendet wird. |
SnowballTokenFilterLanguage |
Die Sprache, die für einen Snowball-Tokenfilter verwendet werden soll. |
StemmerTokenFilterLanguage |
Die Sprache, die für einen Stemmertokenfilter verwendet werden soll. |
StopwordsList |
Identifiziert eine vordefinierte Liste sprachspezifischer Stoppwörter. |
TokenCharacterKind |
Stellt Klassen von Zeichen dar, für die ein Tokenfilter ausgeführt werden kann. |